전체보기238 Chain-of-Agents 논문 정리 한눈에 보기이 논문은 멀티에이전트 시스템을 하나의 모델 안으로 증류하는 방법을 제안합니다.기존 멀티에이전트 시스템은 강력합니다.하지만 보통 다음 문제가 있습니다.여러 에이전트가 서로 메시지를 주고받아 비용이 큽니다.프롬프트와 워크플로를 사람이 많이 설계해야 합니다.새로운 도메인으로 옮기려면 재구성이 필요합니다.시스템 전체를 데이터로 직접 학습시키기 어렵습니다.논문은 이를 해결하기 위해 Chain-of-Agents(CoA) 를 제안합니다.핵심은 간단합니다.여러 에이전트가 협업하는 과정을 하나의 LLM이 내부적으로 순차 실행하도록 학습시킨다. 그 결과 모델을 논문에서는 Agent Foundation Model(AFM) 이라고 부릅니다.결과부터 보기AFM은 웹 탐색, 복잡한 질의응답, 코드 생성, 수학 추론에.. 2026. 4. 28. O-Researcher 논문 정리 핵심 요약O-Researcher는 오픈소스 LLM을 딥 리서치 모델로 훈련하는 프레임워크다.딥 리서치는 단순 질의응답이 아니다.질문을 쪼개고, 검색하고, 페이지를 읽고, 근거를 모으고, 긴 보고서로 합성하는 작업이다.이 논문의 핵심 주장은 명확하다.좋은 답변만 모방하면 부족하다.좋은 리서치 과정을 데이터로 만들어야 한다.여러 에이전트가 만든 검색·검증·요약 궤적을 학습시키면 오픈소스 모델도 강해질 수 있다.논문은 O-Researcher-RL이 DeepResearch Bench에서 48.48점을 기록했다고 보고한다.이는 GPT-5 기준선의 46.77점, OpenAI O3 기준선의 43.71점보다 높다.다만 모든 딥 리서치 에이전트를 압도한 것은 아니다.WebWeaver와 OAgents-DR 같은 에이전트 .. 2026. 4. 28. CASTER 논문 정리 한 줄 요약CASTER는 멀티 에이전트 시스템에서 모든 작업을 비싼 고성능 모델에 맡기는 방식을 줄이기 위한 라우터다.핵심은 단순하다.쉬운 하위 작업은 저렴한 모델로 보낸다.복잡하거나 위험한 하위 작업은 강한 모델로 보낸다.실패한 라우팅 사례를 다시 학습해 다음 선택을 고친다.논문은 이 방식으로 강한 모델만 쓰는 기준선과 비슷한 품질을 유지하면서,일부 조건에서 추론 비용을 최대 72.4% 줄였다고 보고한다.문제의식: 멀티 에이전트는 똑똑하지만 비싸다멀티 에이전트 시스템은 하나의 큰 목표를 여러 역할로 나눈다.예를 들면 소프트웨어 개발에서는 다음과 같은 흐름이 생긴다.기획자가 요구사항을 정리한다.아키텍트가 구조를 설계한다.코더가 구현한다.리뷰어가 검토한다.이 구조는 긴 작업에 강하다.하지만 비용 문제가 크.. 2026. 4. 28. Beyond Pipelines: A Survey of the Paradigm Shift toward Model-native Agentic AI 논문 정리 생성형 AI는 답을 만든다.에이전트 AI는 목표를 향해 움직인다.이 논문은 그 차이를 시스템 설계 방식의 변화로 설명한다.핵심은 단순하다.예전에는 에이전트 능력을 외부 파이프라인으로 붙였다.이제는 그 능력을 모델 내부에 학습시키려 한다.이 전환의 엔진은 강화학습이다.논문이 말하는 변화는 “더 복잡한 에이전트 프레임워크”가 아니다.오히려 반대다.복잡한 외부 조립을 줄이고, 모델 자체가 계획하고, 도구를 쓰고, 기억을 관리하도록 만드는 흐름이다.한 줄 요약에이전트 AI의 중심은 프롬프트와 워크플로를 잘 짜는 문제에서 모델이 경험을 통해 행동 능력을 학습하는 문제로 이동하고 있다.Crop 포인트: 파란 영역에서 빨간 영역으로 이동하는 흐름이 논문 전체의 핵심이며, 계획·도구 사용·기억·응용이 모두 같은 방향으.. 2026. 4. 28. MemOS 논문 정리 한 줄 요약이 논문은 LLM의 기억을 단순한 프롬프트나 검색 결과가 아니라 운영체제가 관리하는 자원처럼 다루자고 제안한다.핵심 제안은 MemOS다.MemOS는 LLM의 기억을 저장하고, 불러오고, 수정하고, 폐기하고, 이전하고, 추적하는 체계를 만든다.논문은 이를 통해 LLM이 “대답하는 시스템”에서 “기억하고 적응하는 시스템”으로 이동할 수 있다고 본다.왜 LLM에 ‘메모리 운영체제’가 필요한가현재 LLM은 많은 지식을 갖고 있다.하지만 그 지식은 주로 모델 내부 파라미터에 묻혀 있다.문제는 다음과 같다.어떤 지식이 어디에 있는지 알기 어렵다.새 지식을 반영하기 어렵다.사용자 선호를 오래 유지하기 어렵다.여러 에이전트나 플랫폼 사이에서 기억을 옮기기 어렵다.RAG는 외부 문서를 붙여 주지만, 기억의 전.. 2026. 4. 28. [Checkmating One, by Using Many: Combining Mixture of Experts with MCTS to Improve in Chess] 논문 정리 한눈에 보기이 논문은 체스 엔진의 한 가지 고정 관념을 건드린다.대부분의 AlphaZero 계열 엔진은 한 개의 신경망으로 전체 게임을 평가한다.초반, 중반, 종반을 모두 같은 방식으로 처리한다.저자들은 이 방식이 비효율적일 수 있다고 본다.체스의 각 단계는 요구하는 판단이 다르기 때문이다.초반: 정석, 기물 전개, 안전한 구조가 중요하다.중반: 전술, 위협, 기물 조화가 중요하다.종반: 제한된 기물 안에서 정확한 계산이 중요하다.논문은 이를 해결하기 위해 M2CTS를 제안한다.핵심은 간단하다.하나의 모델이 모든 국면을 맡지 않는다.현재 국면에 맞는 전문가 모델을 골라 MCTS에 연결한다.문제의식: 왜 하나의 모델로는 부족한가AlphaZero류 엔진은 MCTS로 후보 수를 탐색한다.그리고 신경망은 각 상.. 2026. 4. 28. 이전 1 2 3 4 ··· 40 다음