본문 바로가기
728x90

AI43

[논문 리뷰] Modeling Multimodal Social Interactions: New Challenges and Baselines with Densely Aligned Representations 핵심: 여러 명이 상호작용하는 환경에 대한 task 3가지를 소개하고, 해당 task들을 잘해내는 “verbal과 non-verbal을 더 dense하게 align하는 방식”을 소개한다.0. Abstractsocial situation을 이해하기 위해서는 verbal 신호와 non-verbal 신호를 모두 이해해야 한다. 하지만 기존 여구들은 single-person에 집중하거나 multi-party에 맞지 않는 전체적인 모습에만 집중한다. 따라서 이 연구에서는 여러 명이 상호작용하는 상황에서 3가지 task를 소개한다: ① 발화 대상 인식, ② Coreference 유추, ③ 언급된 인물 유추. 또한, visual feature와 발화를 동기화시켜서 language-visual 표현을 align하는 방.. 2025. 9. 16.
[논문 리뷰] Improving Steering Vectors by Targeting Sparse Autoencoder Features 핵심 : SAE를 활용해서 steering vector들의 영향을 측정하고, 이 측정기를 사용해서 원하는 효과를 내는 steering vector를 찾아낸다. (1. Steering을 먼저한 뒤에, SAE로 분석을 하고, 2. 이걸 바탕으로 원하는 steering vector를 찾아낸다. )0. Abstractsteering vector를 사용하는 것은 파인튜닝보다 쉽고, prompt engineering보다 robust하지만 원치않는 부작용이 존재할 수도 있다는 것이 한계이다. 따라서 SAE를 사용해서 steering vector의 영향을 평가하는 SAE-Targeted Steering(SAE-TS) 방법을 소개한다. CAA나 SAE latents 방식과 다르게, 원하는 SAE 특징만 집중해서 stee.. 2025. 9. 2.
[논문 리뷰] Sparse Autoencoders Find Highly Interpretable Features in Language Models 핵심 : 이미 학습된 모델의 layer를 sparse한 벡터들로 변환함으로써 각 뉴런이 해석 가능한 특징을 가지도록 한다.0. Abstract신경망을 이해하는데 있어서 어려운 점은, 뉴런들이 여러 개의 의미가 다른 context에서 활성화된다는 것이다. Polysemanticity라고 불리는 이 현상은, 신경망이 가지고 있는 뉴런의 개수보다 더 많은 수의 feature를 표현하는 superposition을 원인으로 본다.이를 해결하기 위해서 sparse autoencoder를 사용하여 language model의 내부 신경망을 새롭게 구조화한다. 이를 통해, scalable하고 unsupervised한 방식으로 모델의 interpretability, transparency, steerability를 향상.. 2025. 7. 16.
[Survey] LLM Post-Training: A Dep Dive into Reasoning Large Language Models 핵심 : LLM post-training에 대한 survey paper0. Abstractpretraining은 넓은 범위에서 언어에 대한 베이스를 학습한다면, post-training 방식들은 지식을 정제하고, reasoning과 정확도를 향상시키며, 사용자의 의도와 윤리적 사항들에 대해 더 잘 align하게 만든다.이 survey에서는 post-training의 장점과 한계에 대해서 설명한다.1. Introductionpost-training은 크게 3가지로 구분할 수 잇다.Fine-Tuning : 특정 task에 대해 LLM을 맞춤화시키지만, overfitting, 높은 연산 비용, generalization 약화 등의 문제가 있다.Reinforcement Learning : 전통적인 RL과 다르게.. 2025. 7. 13.
AI agent vs. Agentic AI AI 에이전트 (AI Agents)- 모듈형 구조: 독립적인 구성 요소들로 이루어진 시스템 - 특정 태스크 전용: 명확하게 정의된 특정 작업에 특화 - LLM + 도구: LLM과 외부 도구들을 활용하여 작동- 단일 에이전트 중심: 개별적으로 작동하는 시스템 에이전틱 AI (Agentic AI)- 멀티 에이전트 협업: 여러 AI 에이전트들이 함께 협력하여 작업 - 동적 태스크 분해: 복잡한 작업을 상황에 따라 유연하게 나누어 처리 - Orchestrated 자율성: 각 에이전트가 자율적으로 동작하지만 전체적으로 조율됨 - 패러다임의 전환: 단일 에이전트에서 다중 에이전트 시스템으로의 발전 Paper 링크 : https://arxiv.org/abs/2505.10468 2025. 5. 28.
[논문 리뷰] Cognitive Behaviors that Enable Self-Improving Reasoners, or, Four Habits of Highly Effective STaRs 핵심 : Verification, Backtracking, Subgoal Setting, Backward Chaining 속성들이 강화학습을 더 효과적으로 만든다.0. Abstractlanguage model들이 복잡한 문제에서는 더 길게 생각을 하는 test-time inference는 성능을 높이는 효과적인 방법으로 입증되었다. 강화학습의 경우에는 self-improvement를 유도하는 효과를 보이는데, 어떤 모델들은 성능이 많이 좋아지고 어떤 모델들은 빠르게 정체되는 모습도 확인할 수 있었다. (e.g. Qwen이 Llama보다 훨씬 좋은 성능을 보인다)이러한 차이를 보이게 하는 이유를 4가지 인지 행동(Cognitive Behavior)을 기준으로 하여 분석한다.Verification = 검증B.. 2025. 5. 19.
반응형