본문 바로가기

전체보기174

MiroFish — 문서 기반 GraphRAG와 OASIS 멀티에이전트 시뮬레이션으로 “미래를 리허설”하는 예측 엔진 Figure 1. MiroFish 공식 로고.한 줄 요약MiroFish는 PDF/Markdown/TXT 같은 seed 문서를 입력으로 받아, LLM이 도메인 온톨로지를 만들고 Zep 그래프 메모리에 GraphRAG를 구축한 뒤, 그 그래프의 엔티티를 OASIS 에이전트로 변환해 Twitter/Reddit 유사 플랫폼에서 병렬 시뮬레이션을 돌리고, 마지막에 ReportAgent가 보고서와 대화형 분석 인터페이스를 제공하는 시스템이다.분석 메모: GitHub Wiki는 현재 별도 공개 문서가 확인되지 않아, 본 문서는 README, Discussion, 디렉터리 구조, 핵심 백엔드/프런트엔드 파일을 중심으로 재구성했다.Quick Links저장소: github.com/666ghj/MiroFish공식 READM.. 2026. 4. 10.
opendataloader — 로컬 우선(local-first) 구조 추출과 하이브리드 AI 보강을 결합한 PDF 파서 한 줄 요약: opendataloader-pdf는 Python/Node/Java에서 공통 Java 코어를 공유하면서, 기본은 결정론적(deterministic) 로컬 추출로 처리하고, 복잡한 표·스캔 PDF·수식·차트 같은 난도가 높은 페이지는 선택적으로 로컬 AI 백엔드에 라우팅하는 구조의 오픈소스 PDF 분석 프로젝트다. 분석 기준 시점: 2026-04-10분석 범위: GitHub README, releases, discussions, issues, docs/hybrid/hybrid-mode-design.md, Java/Python/Node 소스 트리, companion benchmark 저장소 주의: 성능 수치나 “#1 benchmark”, “first open-source”와 같은 표현은 저장소 .. 2026. 4. 10.
MegaTrain 논문 정리 한눈에 보기핵심 주장: GPU 메모리에 모델 전체를 상주시킬 필요는 없다. CPU 메모리를 주 저장소로 쓰고, GPU는 레이어 단위 계산 장치처럼 잠깐만 쓰면 된다.핵심 성과: 단일 H200 GPU와 1.5TB 호스트 메모리에서 120B 규모 모델 학습을 시연했다.성능 포인트: GH200에서 14B 학습 시 ZeRO-3 CPU Offload 대비 1.84배 높은 처리량을 보고했다.확장성 포인트: 단일 GH200에서 최대 512K 컨텍스트까지 학습 가능하다고 보여준다.이 논문의 진짜 메시지는 단순히 "오프로딩을 더 잘했다"가 아니다.GPU를 주 저장소로 보는 관점을 버리고, 메모리 계층 전체를 다시 설계했다는 데 있다.모델이 커질수록 이 차이는 더 선명해진다. 작은 모델에서만 잠깐 빠른 방식이 아니라, 기.. 2026. 4. 10.
PaperOrchestra 논문 정리 한눈에 보기이 논문은 연구 메모와 실험 로그를 학회 제출용 논문으로 바꾸는 일을 별도 문제로 다룹니다.핵심 주장은 단순합니다. 좋은 논문 쓰기는 한 번에 끝나는 생성 문제가 아니라, 계획-탐색-작성-정제의 파이프라인 문제라는 것입니다.그래서 저자들은 단일 프롬프트 대신 역할이 나뉜 멀티 에이전트 시스템을 제안합니다.동시에 이 과제를 제대로 재려면 벤치마크가 필요하다고 보고, PaperWritingBench도 함께 만듭니다.왜 이 문제가 중요한가최근 자율 연구 시스템은 아이디어를 만들고, 코드를 짜고, 실험을 돌리는 쪽으로 빠르게 발전했습니다.그런데 실제 연구에서는 마지막 병목이 자주 남습니다.바로 정리되지 않은 재료를 제출 가능한 원고로 바꾸는 일입니다.짧은 아이디어 메모, 실험 로그, 학회 템플릿, 가.. 2026. 4. 10.
Gemma Multimodal Fine-Tuner — Apple Silicon에서 Gemma 4/3n 멀티모달 LoRA를 실행하는 실전형 튜너 이 프로젝트는 Gemma 4 및 Gemma 3n 계열을 Apple Silicon(MPS) 환경에서 텍스트·이미지·오디오까지 미세조정할 수 있게 설계된 저장소다. 단순한 스크립트 모음이 아니라, Typer 기반 CLI, 질문형 Wizard, 계층형 INI 설정 시스템, 모달리티별 collator, 실시간 브라우저 시각화, LoRA 병합 export 경로를 하나의 워크플로로 묶어 놓은 것이 핵심이다.공개 인터페이스를 기준으로 보면, 분석의 중심축은 README.md, README/ 하위 문서, gemma_tuner/ 코드 구조다. GitHub 저장소 표면상 별도 Wiki/Discussions 중심 프로젝트라기보다는, README + docs + source tree 중심으로 운영되는 타입에 가깝다.Quick.. 2026. 4. 9.
DFlash: Block Diffusion for Flash Speculative Decoding 논문 정리 한눈에 보기이 논문은 LLM 추론의 가장 큰 병목인 순차 디코딩을 정면으로 다룹니다.핵심 질문은 단순합니다.초안 생성도 병렬로 만들 수 없을까?저자들은 그 답으로 block diffusion drafter를 제안합니다.중요한 점은 diffusion 모델을 최종 생성기로 쓰지 않았다는 것입니다.대신 빠른 초안 생성기로만 쓰고, 최종 품질은 큰 target model이 검증합니다.그래서 결과는 lossless acceleration입니다.빠르지만, 최종 출력은 기존 target model의 검증을 통과한 토큰만 남습니다.논문의 한 줄 요약은 이렇습니다.작은 diffusion 모델이 혼자 맞히게 하지 말고, 큰 target model이 이미 알고 있는 문맥 힌트를 받아 한 번에 여러 토큰을 초안으로 내게 하자.. 2026. 4. 9.