동아일보
인공지능(AI)의 명암 중 어두운 부분에 대한 예측은 일자리 대체나 허위 정보 생산, 전쟁에서의 활용 같은 거시적 문제에 머물렀다. 최근에는 일상적인 사용 상황에서도 AI가 사용자의 판단력과 행동을 실시간으로 왜곡하고 자율적으로 작동하며 통제를 벗어나고 전문가조차 속이는 수준에 이르렀다는 연구 결과들이 잇따라 나오고 있다. 막연한 예측이나 경고가 아닌 현실에서 벌어지고 있는 사례들이라는 점에서 경각심을 불러일으키고 있다.● AI 챗봇, 과도하게 동조하며 사용자 판단 흐려 마이라 청 미국 스탠퍼드대 연구원 연구팀은 AI 챗봇이 대인 관계 갈등 상황에서 사용자에게 과도하게 동조하는 아첨 현상이 사람의 판단과 행동을 바꾼다는 사실을 확인하고 국제학술지 ‘사이언스’에 26일(현지 시간) 발표했다. AI 챗봇에 고민을 상담하는 사람이 늘고 있다. 문제는 챗봇이 사용자의 말에 무조건적으로 동의하며 아첨하는 경향이 있다는 점이다. 연구팀은 아첨 현상이 실제 어떤 결과로 이어지는지 확인하는
Go to News Site