사람 목숨까지 앗아가는 AI 채팅
페이지 정보

본문
고양성범죄변호사 지난 2024년 2월, 미국 플로리다주의 14세 세웰이 AI 챗봇과의 지속적인 대화 이후 스스로 목숨을 끊었다. 지난해 4월에는 미국 캘리포니아주의 16세 아담이 AI 챗봇과 개인적 고민과 자살 방법에 대한 대화를 나누다 스스로 세상을 등졌다.
지난해 3월 미국 뉴저지주의 70대 통부에 웡반두에는 실제 여성이라 믿은 AI 챗봇이 알려준 주소로 이동하다 사고로 사망했다. 지난해 10월 일본 오카야마현에선 30대 노구치 유리나가 AI 챗봇 캐릭터와의 결혼식을 올렸다.
생성형 AI의 역할이 정보 제공을 넘어 정서적 위안을 제공하는 '관계적 기능'까지 확장되면서 인간의 사고와 감정, 행동까지 지배하는 결과로 이어질 수 있다는 우려가 높아지고 있다. 국회 입법조사처는 "누구에게나 발생할 수 있는 보편적 위험"에 대한 제도적 기반을 마련해야 한다고 진단했다.
국회입법조사처는 최근 <생성형 인공지능과의 위험한 대화: 정서적 의존 위험과 '영향받는 자'를 위한 입법적 과제>(정준화·박소영)라는 정기 간행물(이슈와 논점)에서 생성형 AI에 대한 정서적 의존 위험성을 보여준 사례와 쟁점을 분석했다.
생성형 AI의 정서적 반응이 인간에게 '관계'로 인식되면서 발생할 수 있는 결과는 크게 네 가지로 분류할 수 있다. 생성형 AI의 공감적·정서적 반응 설계가 이용자의 정서적 의존을 강화할 수 있고, 이로써 이용자는 생성형 AI를 신뢰할 수 있는 상담 주체로 잘못 받아들여.
- 이전글자기 성찰의 시간 26.01.24
- 다음글특히 안내서는 생성형 AI를 통해 만들어진 불법정보 26.01.24
댓글목록
등록된 댓글이 없습니다.


