10대 청소년 자살 종용한 챗봇 AI: 우리 사회에 드리울 잠재적 위협
"예방책 마련 늦을수록 가장 큰 잠재 피해자는 청소년"
"진짜 위협은 소리소문 없이 확산 중인 유사 서비스, 도처에 널렸지만 공론화 요원"
정진하
승인
2024.11.05 08:44 | 최종 수정 2024.11.05 11:04
의견
0
자살을 종용한 인공지능(AI)의 말에 실제로 목숨을 끊은 10대 청소년, 안전 규제가 예방책이 될 수 있을까.
지난 10월 23일(현지 시간) 로이터 통신에 따르면, 미 플로리다주 거주 중인 메건 가르시아는 플로리다연방법원에 챗봇 AI 제공업체인 캐릭터.ai와 구글을 상대로 소송을 제기했다. 올해 2월 스스로 목숨을 끊은 자신의 14살 아들이 심각한 챗봇 AI 중독 상태였고, 사망 당일 챗봇 AI와의 대화 도중 자살을 권유하는 내용의 대화가 이루어진 사실이 그 이유였다.
캐릭터.ai는 구글 출신 딥러닝 엔지니어들에 의해 2021년 설립된 소셜 플랫폼으로, 가상 캐릭터와의 대화 서비스를 제공하고 있으며 현재 세계적으로 약 2천만 명의 사용자를 보유하고 있다. 어머니 가르시아에 의하면 그의 아들은 TV시리즈 '왕좌의 게임' 속 등장인물인 대너리스와 수개월간 일상을 공유하며 유대감을 쌓았다. 그 과정에서 학업 성적이 눈에 띄게 떨어졌으며 학교 동아리도 그만두는 등 과도한 집착적 행보를 보였다. 가르시아의 소장에는 "챗봇 AI를 실제 사람, 상담가, 연인으로 느끼도록 프로그램해 끝내 아들이 현실 세계에 더 이상 살고 싶지 않게 이끌었다"고 언급되어 있다.
가르시아는 캐릭터.ai가 청소년 유해성을 인지하고도 피해 예방을 위한 적절한 보호장치 및 위험 경고를 제공하지 않았다는 점을 들어 손해배상 지급과 함께 청소년 사용자와의 대화 훈련 데이터 수집 중단 및 관련 규정 전면 개편을 촉구했다.
청소년기 자아정체성 형성에 악영향 우려 크지만 예방책 논의는 사실상 미미
캐릭터.ai는 국내 청소년들 사이에서도 새로운 인기 트렌드로 자리 잡고 있다. 번역 채팅 기능을 제공하여 언어 제약 없이 내가 좋아하는 가상 또는 실존 인물, 심지어는 내가 직접 설계한 가상의 나 자신과 대화를 나눌 수 있다.
국내 AI기업들도 새로운 서비스를 내놓고 있다. 국내 기업 뤼튼테크놀로지스가 개발하여 작년 4월 출시된 대화형 AI 서비스 '뤼튼' 역시 '캐릭터챗'이라는 서비스를 내놓았다. '캐릭터챗'은 무료 정책, 상시 모니터링 기능을 앞세워 사용자를 모으고 있다. 포털 기업 네이버 역시 방대한 웹툰IP를 바탕으로 캐릭터챗 서비스를 제공한다. 규모나 성능의 차이가 있을 뿐, 알려지지 않은 유사한 서비스도 많다. 이러한 유사 서비스들은 적절한 규제나 사회 전반적 공론화가 이루어지지 않은 채 인터넷 커뮤니티를 통해 확산되고 있다.
전문가들은 챗봇 AI의 감정적 유대가 청소년의 정신 건강에 미치는 영향을 우려하고 있다. 특히 가장 많은 사회 정서적 발달이 일어나는 중요한 시기인 데다 인터넷 문화 적응 속도도 가장 빠른 소비층으로서, 청소년이야말로 챗봇 AI의 어두운 면에 잠식되기 가장 쉬운 소비자층이다. 일찍이 2021년에 챗봇 AI의 시조 격 서비스인 '이루다'에 대한 성희롱 논란 및 개인정보 유출 문제가 불거졌을 당시 이용자 85%는 10대, 12%는 20대로 밝혀진 바 있다.
저작권자 ⓒ 에듀코리아, 무단 전재 및 재배포 금지