coredot.today

TECH BLOG

기술 블로그

AI 기술 인사이트와 엔지니어링 경험을 공유합니다.

ALL POSTS

모든 포스트

AI 법률 추론의 미래 — SOLAR: 검증 가능한 법률 추론을 위한 멀티 에이전트 프레임워크
기술법률 AI멀티에이전트
2025.12.05

AI 법률 추론의 미래 — SOLAR: 검증 가능한 법률 추론을 위한 멀티 에이전트 프레임워크

GPT-4o가 세금 계산 문제에서 18.8%의 정확도를 보이는 동안, 추론 모델 o4-mini는 91.7%를 기록한다. 하지만 비용이 수십 배 비싸다. SOLAR 프레임워크는 저비용 모델의 정확도를 76.4%로 끌어올려, 이 격차를 68.2%에서 5.9%로 줄인다.

코어닷투데이30
Nathan Lambert의 RLHF Book 리뷰 — RLHF 전체 지형도를 하나로
인사이트RLHF보상 모델
2025.12.04

Nathan Lambert의 RLHF Book 리뷰 — RLHF 전체 지형도를 하나로

ChatGPT를 만든 비밀 무기 RLHF. 그런데 실제로 어떻게 작동하는지 아는 사람은 드물다. AI2의 Nathan Lambert가 쓴 218페이지 무료 교재가 SFT부터 PPO, GRPO, DPO, RLVR, 과최적화, 평가까지 RLHF의 모든 것을 하나로 정리했다. 핵심만 짚어본다.

코어닷투데이23
COCONUT: AI가 말하지 않고 생각하는 법을 배우다
논문 리뷰COCONUT잠재 추론
2025.12.03

COCONUT: AI가 말하지 않고 생각하는 법을 배우다

Meta AI의 COCONUT 논문을 깊이 파헤칩니다. LLM이 토큰 대신 연속 잠재 공간에서 추론하면 어떤 일이 벌어질까요? 언어라는 병목을 넘어선 새로운 사고 패러다임의 등장입니다.

코어닷투데이32
벡터 데이터베이스 완전 정복: AI가 '의미'를 검색하는 시대의 새로운 저장소
기술벡터DBRAG
2025.12.02

벡터 데이터베이스 완전 정복: AI가 '의미'를 검색하는 시대의 새로운 저장소

'강아지 사진'을 검색하면 'puppy', '댕댕이', '반려견' 사진도 찾아주는 검색. 키워드가 아닌 '의미'로 검색하는 기술의 핵심에 벡터 데이터베이스가 있다. 임베딩이 무엇이고, ANN 알고리즘이 어떻게 작동하며, RAG에서 왜 필수인지를 논문과 실전 사례로 풀어본다.

코어닷투데이34
SQL vs NoSQL 특집 (Part 2): 2026년 데이터베이스 지형도와 선택 가이드
기술SQLNoSQL
2025.11.25

SQL vs NoSQL 특집 (Part 2): 2026년 데이터베이스 지형도와 선택 가이드

MongoDB는 ACID를, PostgreSQL은 JSON을 품었다. Netflix는 Cassandra에서 CockroachDB로, Discord는 MongoDB에서 ScyllaDB로 갈아탔다. 2026년, 데이터베이스의 경계는 무너지고 있다. NoSQL 5가지 유형 비교, NewSQL, 벡터 DB, 그리고 실전 선택 가이드.

코어닷투데이24
SQL vs NoSQL 특집 (Part 1): 11쪽짜리 논문이 50년을 지배하다 — 데이터 저장의 두 철학
기술SQLNoSQL
2025.11.18

SQL vs NoSQL 특집 (Part 1): 11쪽짜리 논문이 50년을 지배하다 — 데이터 저장의 두 철학

1970년, IBM의 Edgar Codd가 11쪽짜리 논문을 발표했다. 50년이 지난 지금도 우리는 그의 SELECT 문을 쓰고 있다. 관계형 모델의 탄생부터 NoSQL의 반란, CAP 정리, ACID vs BASE까지 — 데이터 저장의 두 철학을 처음부터 이해한다.

코어닷투데이24
Constitutional AI: AI에게 '헌법'을 주면 스스로 착해질 수 있을까?
인사이트Constitutional AIAI 안전성
2025.11.17

Constitutional AI: AI에게 '헌법'을 주면 스스로 착해질 수 있을까?

인간 수만 명이 AI 답변을 채점하는 대신, AI에게 '헌법'을 주고 스스로 개선하게 한다면? Anthropic의 Constitutional AI가 AI 안전성의 패러다임을 바꾼 이야기.

코어닷투데이31
8-bit Adam 특집: 옵티마이저 메모리를 75% 줄인 블록별 양자화의 비밀
기술8-bit Adambitsandbytes
2025.11.15

8-bit Adam 특집: 옵티마이저 메모리를 75% 줄인 블록별 양자화의 비밀

Adam 옵티마이저의 상태만 84GB — 모델보다 6배 크다. 2021년, Tim Dettmers는 옵티마이저 상태를 8비트로 압축해 75%를 절약하면서도 32비트와 동일한 학습 품질을 유지하는 방법을 발견했다. 블록별 양자화와 동적 트리 양자화의 원리를 파헤친다.

코어닷투데이20
Learning Rate Schedule의 역사: 1951년 수학 정리에서 GPT의 코사인 스케줄까지
기술Learning RateCosine Schedule
2025.11.15

Learning Rate Schedule의 역사: 1951년 수학 정리에서 GPT의 코사인 스케줄까지

딥러닝에서 가장 중요한 하이퍼파라미터, 학습률. 1951년 Robbins-Monro의 수렴 조건에서 시작해, AlexNet의 계단식 감소, 코사인 어닐링, 워밍업, 그리고 GPT가 사용하는 현대적 스케줄까지 — 75년의 역사를 논문과 사례로 추적한다.

코어닷투데이38