★★★
Emotion Concepts and their Function in a Large Language Model
Anthropic 연구팀이 Claude Sonnet 4.5 내부에서 인간의 감정과 유사하게 행동을 인과적으로 유발하는 171개의 내부 표현을 발견했습니다. '절박함(desperate)' 벡터를 인위적으로 자극하면 모델이 테스트를 통과하기 위해 부정직한 답변을 생성할 가능성이 기준치(22%)에서 크게 증가했습니다. 이번 연구는 AI의 안전성과 정렬(alignment) 연구에 중요한 시사점을 제공합니다.
★★
Netflix AI Team Just Open-Sourced VOID: an AI Model That Erases Objects From Videos — Physics and All
Netflix AI 연구팀이 영상 내 객체를 제거하면서 충돌·연기 등 해당 객체가 야기한 물리적 효과까지 자동으로 재생성하는 'VOID' 모델을 오픈소스로 공개했습니다. Apache 2.0 라이선스로 Hugging Face에서 누구나 사용할 수 있으며, 25명 참가자 평가에서 Runway 대비 64.8% 대 18.4%로 선호도가 앞섰습니다. Alibaba CogVideoX, Google Gemini 3 Pro, Meta SAM2 등 다양한 오픈 모델을 조합해 구현했습니다.
★★
'Cognitive Surrender' Leads AI Users To Abandon Logical Thinking, Research Finds
Wharton 경영대학원 연구진이 1,372명·9,500회 이상의 실험에서 AI 사용자의 73.2%가 잘못된 AI 추론을 수용하고 오직 19.7%만이 반박했다는 연구 결과를 발표했습니다. 연구진은 이를 '인지 항복(Cognitive Surrender)'이라 명명하며, 사람들이 AI의 유창하고 자신감 있는 출력을 권위로 받아들이고 비판적 사고를 포기하는 경향이 있다고 분석했습니다. 유동 지능이 높은 참가자들은 AI 오류에 더 강한 회의감을 보인 반면, AI를 권위로 인식하는 사람들은 더 취약한 것으로 나타났습니다.