
CES 2026 완전 정리: '물리적 AI' 시대가 열리다 — 로봇, 자율주행, 그리고 일상의 혁명
14만 8천 명이 몰린 CES 2026의 핵심 키워드는 '물리적 AI'였다. NVIDIA의 로봇 두뇌부터 보스턴 다이내믹스의 양산형 아틀라스, 삼성·LG의 AI 가전 혁명까지 — 화면 속에 갇혀 있던 AI가 드디어 현실 세계로 걸어 나왔다.

14만 8천 명이 몰린 CES 2026의 핵심 키워드는 '물리적 AI'였다. NVIDIA의 로봇 두뇌부터 보스턴 다이내믹스의 양산형 아틀라스, 삼성·LG의 AI 가전 혁명까지 — 화면 속에 갇혀 있던 AI가 드디어 현실 세계로 걸어 나왔다.
2025년까지 AI는 주로 화면 안의 존재였다. ChatGPT에게 질문하고, 이미지를 생성하고, 코드를 작성하게 하는 것 — 전부 디지털 세계의 일이었다. AI가 아무리 똑똑해도 커피를 타주거나, 빨래를 개거나, 차를 운전할 수는 없었다.
2026년 1월, 라스베이거스에서 열린 CES 2026은 이 구도가 바뀌기 시작했다는 선언이었다.
14만 8천 명의 참가자, 4,100개 이상의 전시 기업, 37,000건 이상의 뉴스 보도. 역대 최대 규모의 이 전시회를 관통한 키워드는 단 하나였다:
"물리적 AI(Physical AI)" — 보고, 이해하고, 현실 세계에서 행동하는 AI
화면 속에서 글을 쓰던 AI가 이제 로봇의 두뇌가 되어 걷고, 자동차의 눈이 되어 도로를 읽고, 가전의 감각이 되어 집안을 돌본다. 이 글에서는 CES 2026의 핵심 발표들을 왜 이런 기술이 필요해졌는지의 맥락부터, 구체적으로 무엇이 발표되었는지, 그리고 우리 일상이 어떻게 바뀔 것인지까지 깊고 쉽게 풀어본다.
CES(Consumer Electronics Show)는 1967년 뉴욕에서 시작됐다. 초기에는 TV와 라디오 같은 가전 박람회에 불과했지만, 반세기를 거치며 세계 최대의 기술 트렌드 지표로 성장했다.
역사를 돌아보면, CES의 주인공은 시대와 함께 바뀌어 왔다:
| 시대 | CES의 주인공 | 대표 제품 |
|---|---|---|
| 1970–80년대 | 가전 | VCR, CD 플레이어 |
| 1990년대 | PC·인터넷 | 윈도우 PC, 초기 인터넷 기기 |
| 2000년대 | 모바일·디스플레이 | 평판 TV, 스마트폰 |
| 2010년대 | IoT·자율주행 | 스마트홈, 자율주행 컨셉카 |
| 2020년대 초 | 메타버스·EV | VR 헤드셋, 전기차 |
| 2025–26년 | AI·로봇 | 휴머노이드 로봇, 물리적 AI |
CES 2025에서 "AI"라는 단어가 처음으로 모든 카테고리를 지배했다면, CES 2026은 그 AI가 소프트웨어를 넘어 하드웨어로 확장된 해였다. 젠슨 황 NVIDIA CEO의 말을 빌리면:
"컴퓨팅은 가속 컴퓨팅과 인공지능에 의해 근본적으로 재편되었다."
NVIDIA는 원래 게이밍 GPU 회사였다. 하지만 2012년 딥러닝 혁명 이후, GPU가 AI 학습의 핵심 엔진이 되면서 회사의 운명이 바뀌었다. 2026년 현재 NVIDIA의 시가총액은 세계 1위 수준이며, AI 인프라의 대명사가 되었다.
CES 2026에서 젠슨 황은 거의 2시간에 달하는 키노트를 통해 NVIDIA의 비전을 펼쳤다. 그가 제시한 것은 단순한 제품 발표가 아니라, "AI가 물리적 세계를 이해하고 행동하는 시대"의 청사진이었다.
NVIDIA가 공개한 Vera Rubin 플랫폼은 6개의 칩이 극한 수준으로 공동 설계된 AI 시스템이다.
50 PFLOPS (NVFP4 추론)
와트당 2배 성능
칩 간 초고속 연결
실리콘 포토닉스 이더넷
SuperNIC
데이터 처리 유닛
핵심은 "이전 플랫폼 대비 토큰 생성 비용 1/10" — 같은 돈으로 10배 더 많은 AI 추론을 할 수 있다는 것이다. 하나의 포드(pod)에 1,152개 GPU가 16개 랙에 걸쳐 배치되며, 45도 수냉으로 전통적인 칠러(chiller) 없이 냉각된다. 512개 포트가 각 200Gbps의 실리콘 포토닉스로 연결된다.
왜 이것이 중요할까? 물리적 AI — 로봇, 자율주행차, 산업 시스템 — 는 실시간으로 엄청난 양의 추론을 수행해야 한다. 자율주행차가 1초에 수십 번 주변 환경을 분석하고, 로봇이 손가락 하나하나를 실시간으로 제어하려면, 추론 비용이 극적으로 낮아져야 한다. Vera Rubin은 그 경제성을 제공한다.
CES 2026에서 가장 인상적인 발표 중 하나는 Alpamayo — NVIDIA가 "세계 최초의 사고하고 추론하는 자율주행 AI"라고 부른 시스템이다.
기존 자율주행 AI는 패턴 매칭에 가까웠다. "이 형태 + 이 속도 = 보행자 → 브레이크"라는 식이다. Alpamayo는 다르다. Vision-Language-Action(VLA) 모델 아키텍처로, 주변 환경을 보고(Vision), 상황을 언어적으로 추론하고(Language), 운전 행동을 결정한다(Action).
구체적 사례를 보자:
기존 시스템이 "어린이 감지 → 브레이크"라는 반사적 반응이었다면, Alpamayo는 "왜 브레이크를 밟아야 하는지", "다음에 무슨 일이 일어날 수 있는지"까지 추론한다. 이것이 Chain-of-Thought(연쇄 사고) 추론이 자율주행에 적용된 사례다.
Alpamayo R1은 오픈소스 추론 VLA 모델이며, AlpaSim은 오픈소스 시뮬레이션 프레임워크다. 메르세데스-벤츠 CLA가 Alpamayo + NVIDIA DRIVE 플랫폼을 탑재한 최초의 양산 승용차가 되며, 2026년 미국에서 "AI 정의 주행(AI-defined driving)"이 가능해진다.
초기 채택 기업으로는 재규어 랜드로버, 루시드, 우버가 이름을 올렸다.
만약 Alpamayo가 자율주행차의 두뇌라면, Isaac GR00T N1은 휴머노이드 로봇의 두뇌다.
이 모델의 설계 철학이 흥미롭다. 인간의 인지 과학에서 영감을 받아 이중 시스템 아키텍처를 채택했다:
손으로 물건 잡기, 걸을 때 균형 유지 같은 즉각적 동작. 의식적 사고 없이 자동으로 실행.
인간의 "무의식적 행동"에 해당"냉장고에서 우유를 꺼내서 컵에 따르려면?" 같은 계획적 사고. 단계를 나누고 순서를 정함.
인간의 "의식적 사고"에 해당이 이중 시스템은 노벨 경제학상 수상자 다니엘 카너먼이 《생각에 관한 생각(Thinking, Fast and Slow)》에서 제시한 인간 인지의 두 시스템에서 직접 영감을 받은 것이다.
훈련 데이터도 혁신적이다. 78만 개의 합성 훈련 궤적**을 생성했는데, 이는 실제 인간이 시연하면 **6,500시간(약 9개월)이 걸릴 양을 단 11시간에 만들어낸 것이다. 합성 데이터와 실제 데이터를 결합하면 성능이 40% 향상된다는 것도 검증되었다.
현재 보스턴 다이내믹스, LG, NEURA Robotics, 캐터필러 등이 Isaac GR00T N1을 자사 로봇에 적용하고 있다.
또 하나의 중요한 발표는 Cosmos** 플랫폼이다. Cosmos는 **물리 법칙을 이해하는 세계 기반 모델(World Foundation Model)이다.
18조(quadrillion) 개의 토큰으로 학습되었으며, 200만 시간 분량의 주행 영상, 로봇 작업, 드론 촬영, 합성 데이터가 포함된다.
왜 이것이 필요할까? 로봇이나 자율주행차를 현실 세계에서 직접 훈련시키는 것은 위험하고 비용이 크다. 로봇이 유리컵을 잡는 연습을 하다가 100개를 깨뜨리면 안 되고, 자율주행차가 사고를 일으키며 학습할 수도 없다. Cosmos는 물리적으로 정확한 시뮬레이션 세계를 생성해서, 로봇과 자율주행차가 가상 세계에서 충분히 연습한 뒤 현실에 투입될 수 있게 한다.
젠슨 황은 지멘스 CEO 롤란트 부시를 무대에 초대해 "산업 AI 운영체제(Industrial AI Operating System)" 구축을 발표했다.
이 파트너십의 첫 성과는 독일 에를랑겐의 지멘스 전자 공장을 세계 최초의 완전 AI 주도 적응형 제조 시설로 전환하는 것이다(2026년 착공).
이미 펩시코에서 적용한 결과, 물리적 변경 전에 잠재적 문제의 90%를 사전 식별하고, 처리량이 20% 증가했다고 한다.
휴머노이드 로봇은 SF 영화의 단골 소재였지만, 오랫동안 실용성과는 거리가 멀었다. 두 발로 걷는 것만으로도 엄청난 연산이 필요했고, 두 팔로 섬세한 작업을 하는 것은 더욱 어려웠다.
2026년에 상황이 급변한 이유는 세 가지다:
CES 2026에는 9개의 휴머노이드 로봇이 무대에 올라, 단순한 컨셉이 아니라 양산 일정과 상업 고객을 발표했다. 이것이 이전 CES와의 결정적 차이다.
보스턴 다이내믹스의 Atlas는 20년 이상의 연구 끝에 드디어 양산 단계에 진입했다.
Atlas의 스펙:
| 항목 | 사양 |
|---|---|
| 자유도 | 56개 |
| 들어올리기 | 50kg (110파운드) |
| 팔 도달거리 | 2.3m (7.5피트) |
| 카메라 | 360도 커버리지 |
| 배터리 | 교체식 듀얼, 약 4시간 작동 |
| 운용 온도 | -20°C ~ 40°C, 방수 |
| 손 | 인간 크기, 촉각 센서 내장 |
| 제어 모드 | 자율 / 원격 조종 / 태블릿 |
가장 주목할 점은 구글 딥마인드와의 파트너십이다. Atlas의 두뇌에 Gemini Robotics AI가 탑재된다. 이는 구글의 최신 멀티모달 AI가 로봇의 시각, 언어 이해, 행동 계획을 통합적으로 처리한다는 의미다.
그리고 모기업 현대자동차가 미국에 260억 달러를 투자하고, 로봇 공장에서 2028년까지 연 3만 대의 Atlas를 생산할 계획을 발표했다. 최초 배치 지점은 조지아주 사바나의 현대 메타플랜트(Metaplant)로, 2028년 부품 조립부터 시작해 2030년까지 복잡한 조립 공정으로 확대된다.
Atlas가 프리미엄 산업용이라면, 중국의 EngineAI는 "2만 5천 달러(약 3,500만 원)"라는 놀라운 가격표를 붙인 T800을 공개했다.
이 가격은 기존 산업용 로봇 팔 하나 가격과 비슷하다. 만약 이 가격대의 휴머노이드가 실제로 공장에서 유용하게 작동한다면, 로봇 도입의 진입 장벽이 극적으로 낮아진다.
LG는 "제로 레이버 홈(Zero Labor Home)" — 집안일 제로의 미래를 선언하며 CLOi D 가정용 로봇을 공개했다.
처리 칩, 디스플레이, 스피커, 카메라, 음성 생성 AI
각 손에 5개 독립 제어 손가락
냉장고 열기, 빨래 개기 가능로봇 청소기 기술 기반
집안 구석구석 자유 이동핵심 기술은 VLA(Vision-Language-Action) 모델이다. 시각 정보와 언어 명령을 받아 물리적 동작으로 변환한다. 수만 시간의 가사 작업 데이터로 훈련되었으며, LG ThinQ 스마트홈 생태계와 통합된다.
CES 현장에서는 세 가지 시나리오를 시연했다:
LG는 2026년 내 출하 시작을 목표로 하고 있다.
포르쉐 디자인 협업. 100kg 리프팅. 인공 피부로 충돌 방지. NVIDIA GR00T 탑재.
169cm, 69kg. 이미 5,000대 이상 제조·출하. 오픈소스 훈련 플랫폼 Genie Sim 3.0.
55자유도. 소프트 외피 + 촉각 센서. 체스 대국, 군무 시연. 노인 돌봄 특화.
22자유도. 온디바이스 VLA. 바퀴형. 클라우드 불필요. CES 직후 사전주문 오픈.
소형·접이식(G1). 산업용·배터리 교체식(H2). Robot-as-a-Service 모델.
세계 최초 상용 수술 휴머노이드. 서브밀리미터 정밀도. FDA 510(k) 승인. 척추·정형외과 수술에 실전 투입 중.
특히 AgiBot A2의 사례가 눈에 띈다. "5,000대 이상 이미 제조·출하"라는 수치는 휴머노이드 로봇이 데모가 아닌 산업이 되고 있음을 보여준다.
삼성 DX 부문 CEO 노태문은 라스베이거스 윈(Wynn) 호텔에서 "The First Look" 행사를 열고 "Your Companion to AI Living" 비전을 발표했다.
핵심 메시지: AI는 더 이상 특정 제품의 기능이 아니라, 삼성의 모든 제품과 서비스를 관통하는 철학이 되었다. R&D, 제품, 운영, UX — 모든 것이 AI 중심으로 재편되고 있다는 선언이다.
CES 2026에서 가장 화제가 된 제품 중 하나는 삼성의 R95H — 세계 최초의 130인치 Micro RGB TV였다.
기존 LED TV와 무엇이 다른가?
일반 LED TV는 백라이트 위에 컬러 필터를 얹어 색을 만든다. OLED는 유기물 소재가 직접 빛을 내는데, 번인(burn-in) 문제가 있다. Micro RGB는 100마이크로미터(0.1mm) 미만의 초소형 빨강·초록·파랑 LED가 직접 빛을 낸다. 번인이 없고, 밝기도 OLED를 능가한다.
100% BT.2020 광색역 — VDE 인증을 받은 이 수치는, 인간이 볼 수 있는 거의 모든 색상을 재현할 수 있다는 의미다. CES 2026 Innovation Awards Best of Innovation을 수상한 글레어 프리(Glare Free) 기술까지 탑재해, 조명이 켜진 거실에서도 반사 없이 영상을 즐길 수 있다.
하단 가장자리가 바닥에 닿는 "Timeless Frame" 디자인으로 마치 벽 자체가 디스플레이가 된 듯한 느낌을 준다. 55인치부터 130인치까지 6가지 사이즈로 제공된다.
삼성은 모든 TV 라인업에 Vision AI Companion(VAC)을 탑재했다. 이것은 단순한 음성 검색이 아니다:
냉장고에 구글 Gemini가 들어갔다. 내부 카메라가 식재료를 인식하고:
"냉장고 문을 열고 '오늘 뭐 해먹을까?' 하면, 냉장고가 안에 있는 재료를 보고 레시피를 추천해주는 시대"가 현실이 된 것이다.
삼성 SmartThings는 4억 3천만 명의 사용자를 돌파했다(2025년 12월 기준). CES 2026에서 발표된 새로운 파트너십:
LG는 CES 2026에서 "Affectionate Intelligence(감성적 지능)"라는 독자적인 AI 철학을 발표했다. 핵심은 Sense-Think-Act(감지-사고-행동) 운영 모델이다.
부스는 5개 테마 존으로 구성되었다:
CLOi D 로봇, 가전
차량 디스플레이
OLED TV 라인업
xboom + will.i.am 협업
기술 심층 전시
LG의 플래그십 OLED evo G6는 몇 가지 기록을 세웠다:
왜 밝기가 중요할까? OLED의 전통적 약점은 밝은 환경에서의 가시성이었다. 거실에 햇빛이 들어오면 LCD보다 어두워 보이는 경우가 있었다. 4,500니트의 피크 밝기와 0.3% 반사율은 이 문제를 사실상 해결한 수치다.
OLED evo W6(벽지 TV)도 부활했다. 2017년 CES에서 첫 선을 보인 아이코닉한 디자인이 돌아왔다. 두께 9mm(연필 한 자루 두께)에 완전 무선 연결을 지원한다. 입구 전시에는 38대의 W6가 동기화되어 하나의 거대한 영상을 만들었다.
LG SIGNATURE 라인업에서 특히 인상적인 것은 Gourmet AI다. 오븐이 80가지 이상의 요리를 자동 인식하고 최적의 조리 설정을 선택한다.
AI Browning 기능은 빵 굽기를 모니터링하면서 적절한 시점에 ThinQ 앱으로 알림을 보낸다. "빵이 거의 다 구워졌어요. 2분 후 꺼내세요"라는 식이다.
CLOi D 가정용 로봇과 별개로, LG는 Actuator AXIUM이라는 로봇 부품 브랜드를 발표했다. 모터, 드라이버, 감속기를 하나의 컴팩트 모듈로 통합한 로봇용 액추에이터다.
수십 년간 쌓아온 모터 제조 역량을 로봇 산업 전체에 공급하겠다는 전략이다. 이는 LG가 로봇 완제품뿐 아니라 로봇 부품 시장까지 노리고 있음을 보여준다.
LG의 모빌리티 솔루션은 CES 2026 Innovation Award를 수상했다. 자율주행 시대에 앞유리가 곧 디스플레이가 되는 기술, 눈동자 추적 기반 운전자 모니터링, 집에서 보던 콘텐츠를 차에서 이어보는 홈-투-카(Home-to-Car) 스트리밍을 선보였다.
CES 2026에서 자율주행은 "미래 기술"이 아니라 "올해 서비스 개시 기술"로 다뤄졌다.
| 기업 | 차량 | 지역 | 일정 |
|---|---|---|---|
| Uber + Lucid + Nuro | 자율주행 라이드헤일 | 샌프란시스코 베이에어리어 | 2026년 하반기 |
| Amazon Zoox | 핸들 없는 로보택시 | 라스베이거스 | 운행 중 |
| 현대/Motional | Ioniq 5 로보택시 | 미국 주요 도시 | 확대 중 |
특히 Amazon Zoox는 핸들과 페달이 아예 없는 완전 자율주행 차량으로, 이미 라스베이거스에서 운행 중이다.
소니 혼다 모빌리티의 AFEELA 1도 마침내 양산 직전 단계에 도달했다.
AFEELA Prototype 2026 — SUV 프로토타입도 동시에 공개되었으며, 2028년 미국 양산이 계획되어 있다.
BMW는 최초로 **Alexa+**를 차량에 통합하는 자동차 브랜드가 되었고, 메르세데스-벤츠는 NVIDIA Alpamayo 기반의 AI 주행을 CLA에 탑재한다.
CES 2026 자동차 섹션의 키워드는 분명했다: "순수 전동화에서 소프트웨어 정의 차량으로의 전환." 차는 더 이상 달리는 기계가 아니라, 달리는 AI 플랫폼이다.
CES 역사상 가장 의외의 참가자 중 하나는 IKEA였다. 가구 회사가 왜 CES에?
IKEA는 21개의 새로운 Matter-over-Thread 제품을 공개했는데, 가격이 충격적이다:
6달러짜리 스마트 전구. Matter-over-Thread를 지원하니 Apple Home, Google Home, SmartThings 모두와 호환된다. IKEA 가구를 사듯 스마트홈 기기를 사는 시대가 온 것이다.
Klippbok 물 감지 센서(누수 시 소리 경고 + 휴대폰 알림), Alpstuga 환경 센서(CO2, 미세먼지, 온도, 습도 측정) 등 실용적 제품도 눈에 띈다.
가장 큰 의미는 Zigbee의 종말 선언이다. IKEA는 자사 스마트홈 제품을 전부 Matter 프로토콜로 전환했다. 이는 스마트홈 생태계의 파편화가 끝나가고 있음을 상징한다.
아마존은 **Alexa+**를 Echo 스피커를 넘어 TV(삼성), 자동차(BMW), 가전, 웨어러블로 확장하고, 웹 기반 AI 어시스턴트 Alexa.com까지 공개했다. 프라임 회원은 자동으로 Alexa+ 업그레이드가 적용된다.
구글은 Google TV에 Gemini를 탑재해 자연어 콘텐츠 검색, 시리즈 요약, TV 설정 자동 조정("화면이 너무 어두워" → 밝기 자동 조절)을 선보였다. TCL TV를 시작으로 확대된다.
CES 2026에서 스마트 링**이 주요 카테고리로 부상했다. Pebble Index 01은 단돈 **75달러(약 10만 원)에, 누르면 음성을 녹음하고 자동 전사해 메모 앱으로 보내주는 기능을 탑재했다. 배터리는 "수 년"간 지속되며 2026년 3월 출하 예정이다.
가장 미래적인 발표는 Naox Technologies의 NAOX WAVE — 일반 이어버드처럼 생긴 소비자용 EEG(뇌파 측정) 기기다. 집중도, 각성도, 이완도를 실시간으로 추적한다. 의료용 버전인 NAOX LINK는 FDA 승인을 받았다.
심박수가 10년 전에 "특수 장비에서만 측정 가능한 것"에서 "모든 스마트워치가 제공하는 것"으로 바뀌었듯, 뇌파 측정이 일상적인 바이오시그널이 되는 시대가 열리고 있다.
삼성은 갤럭시 + 웨어러블 + 가전을 연결한 통합 건강 플랫폼을 선보였다:
레노버 CEO 양위안칭은 역사상 처음으로 라스베이거스 스피어(Sphere)에서 CES 키노트를 진행했다. 스피어의 초대형 구형 디스플레이를 활용한 몰입형 프레젠테이션이었다.
가장 놀라운 제품은 ThinkPad Rollable XD** — 13.3인치 노트북이 세로로 확장되어 **약 16인치(50% 이상 화면 증가)가 되는 롤러블 노트북이다. 후면은 투명 고릴라 글래스 Victus 2 패널. Legion Pro Rollable은 게이밍 노트북이 양쪽으로 펼쳐지는 컨셉이었다.
18A(2nm) 공정. CPU 성능 50% 향상. GPU 50% 향상. AI 180 TOPS.
생성형 비디오 편집. 실시간 번역. FSR Redstone 업스케일링.
싱글코어 35% 향상. Adreno GPU 29% 향상.
AMD의 리사 수 CEO는 "AI가 세상을 어떻게 바꾸고 있는가" 주제로 키노트를 진행했으며, 관객이 넘쳐 입석까지 가득 찼다고 한다.
SK하이닉스는 세계 최초 16단 HBM4 메모리(48GB)를 공개해, AI 반도체의 핵심 부품 공급에서의 한국 기업의 위상을 다시 확인했다.
가장 의외의 발표 중 하나는 레고 스마트 브릭이다. 일반 레고 크기의 브릭에 ASIC 칩이 내장되어, NFC 태그, AI 반응형 미니피겨, 모션·거리 센서 등이 빛과 소리를 트리거한다. 화면이 필요 없다 — 물리적 레고 놀이에 디지털 인터랙션이 자연스럽게 녹아든다.
CES 2026의 수천 가지 발표를 관통하는 트렌드를 정리하면:
화면 속 AI → 현실 세계에서 보고, 이해하고, 행동하는 AI. 생성 AI에서 물리적 AI로의 패러다임 전환.
9개 이상의 휴머노이드가 양산 일정·가격·고객 발표. 데모가 아닌 산업.
스마트홈부터 자율주행, 산업 운영까지 — AI 에이전트가 모든 곳에.
클라우드 의존도 감소. 프라이버시, 속도, 개인화를 위해 기기 위에서 실행.
녹음, 요약, 건강 추적 기기가 배경으로 사라지며 자연스럽게 동작.
순수 EV → AI + 소프트웨어 플랫폼으로 자동차 산업의 축 이동.
Matter 표준 채택, IKEA의 초저가 기기로 스마트홈 진입 장벽 소멸.
NVIDIA + 지멘스의 산업 AI OS. 제조업의 AI 전환이 본격화.
뇌파 웨어러블, 스마트 링, AI 진단이 의료 기관에서 일상으로.
레노버 컨셉이 보여준 미래: 노트북이 펼쳐지는 시대.
CES 2026을 한 문장으로 요약하면 이것이다:
AI가 화면에서 나와 세상을 만지기 시작했다.
2025년까지 AI의 주된 무대는 채팅창, 이미지 생성, 코드 작성 — 디지털 영역이었다. 2026년, AI는 로봇의 두 팔이 되어 빨래를 개고, 자동차의 눈이 되어 도로를 읽고, 냉장고의 감각이 되어 식재료를 파악한다.
물론 이 모든 것이 즉시 우리 집에 들어오는 것은 아니다. Atlas의 양산 배치는 2028년이고, LG CLOi D의 가격은 아직 공개되지 않았으며, 로보택시는 특정 도시에서만 운행 중이다. 하지만 방향은 분명하다.
기술의 역사에서 CES 2026은 아마 이렇게 기록될 것이다: "AI가 소프트웨어를 넘어 하드웨어가 된 첫 번째 해."
그리고 그 하드웨어는, 결국 우리 일상의 모든 곳에 스며들 것이다.
참고 자료