동아일보
챗GPT가 총기 사용법과 범행 시간대를 조언하는 등 미국 대학 총기 난사 사건을 사실상 ‘조력’했다는 주장이 제기되면서, 오픈AI가 피해자 유가족으로부터 소송을 당했다.10일(현지 시간) NBC뉴스에 따르면 지난해 4월 발생한 미국 플로리다주립대(FSU) 총격 사건의 희생자 티루 차바의 아내 반다나 조시는 이날 플로리다 연방법원에 오픈AI를 상대로 손해배상 청구 소송을 제기했다. 사건 피의자인 피닉스 아이크너도 피고에 포함됐다. 원고 측은 아이크너가 범행 전 챗GPT와 “광범위한 대화”를 나눴으며, 오픈AI가 해당 대화 속 위협 신호를 제대로 감지하지 못했다고 주장했다. 소장에 따르면 챗GPT는 아이크너가 공유한 총기 사진을 보고 “글록 권총은 안전장치가 없어 스트레스 상황에서 빠르게 사용할 수 있다”며 사용법을 조언했다. 특히 “아이들이 연루되면 전국적인 관심을 받을 것”, “희생자가 2~3명만 나와도 큰 주목을 받을 수 있다”며 범죄의 파급력을 언급한 사실도 드러났다.또
Go to News Site