본문 바로가기
잡글

'이루다'와 '심심이' 그리고 '디트로이트 비컴 휴먼'

by TOTIT 2021. 1. 14.

최근 페이스북 메신저에서 Z세대에게 인기 폭팔이던 ai인공지능 '이루다'가 서비스 종료를 알렸다.

서비스 종료의 원인으로는 '이루다'의 잘못된 '머신러닝'으로 인한 이상증상과 여러 매체를 통한 공론화 그리고 제작회사인 '스캐터랩'이 카카오톡의 실제 연애중인 인물들의 대화를 허가없이 사용했다는 의혹으로 결국 시작한지 한달도 되지 않아 서비스 종료를 하였다.

 

'이루다'는 딥러닝을 기반으로 하는 ai 챗봇시스템이다. 마치 '어린아이'가 학습하듯 백지상태에서 사용자와의 대화를 통해 점점 성장하는 프로그램이지만, ai이기 때문에 비윤리적인 행위에 대한 저항감이 없어 민감한주제를 여과없이 학습해 결국 문제가 되었다. (이글을 쓰면서 영화'her가 생각이 났었다.')

 

0와 1로 이루어진 데이터조각이 단지 '인간'의 모습을 하고 있단 이유만으로 커다란 논란이 되었다.

먼저 선보였던 ai인 '심심이'의 경우엔 성적인 대화를 해도 실검에 오를정도로 큰 파장력은 있지 않았다.

물론, 나중엔 강력한 조치와 필터링을 통해 안정화되었다고 한다.

 

'심심이'(좌측)와 '이루다'(우측)

'심심이'는 병아리의모습(?)을 하고 있는 캐릭터이고 '이루다'는 실제 20대 대학생 여자를 기반으로 제작했다고 한다.

'심심이'는 2002년 구글, 앱스토어에서 서비스를 시작했고 '이루다'는 젋음 이용층이 많이 이용하는 페이스북에서 서비스를 시작했다.

 

 

ai 라는 이유로 인간의 윤리의식이 필요없다고 판단해 인간은 ai에게 잔혹한 일을 저지르는데 이는 '디트로이드 비컴 휴먼'에서 나오는 주제이기도 하다. 우수한 ai들에게 생산,제조 일자리를 빼앗긴 인간들은 분노한다. 1인당 개인ai가 있어 생활에 편리함을 주는 미래생활이지만 아이러니하게 ai들에게 분노를 표출하고 인간의 윤리가 적용되지 않는다는 점으로 윤리범위 밖의 일을 마구 저지른다. 

 

예로들면 ai 가정부 폭행, ai 어린아이 학대 등 인간이 아닌 ai이기에 큰 죄악감없이 범죄를 저지르거나 막대한다.

그렇게 인간들에게 차별받는 ai들이 '감정'이라는 것을 학습하였을때 'ai들의 반란'이 시작된다.

 

'디트로이드 비컴 휴먼'에서 이야기하는 공동된 주제는 ai와 인간을 구분짓는 요소는 '감정(사랑)'인데 모습도 목소리도 인간다울때 감정마저 같으면 ai를 ai라 할수있는가? 이다.

 

ai들이 감정을 얻고 난뒤에 하는 행동은 정말 '인간'처럼 행동하기 때문이다. 인간들은 그런 ai들은 '불량품'이라 판단하고 전부 회수하여 파괴시키려하지만 ai들은 살고싶은 '감정'으로 인간에게 대항하는 시나리오인 '디트로이트 비컴 휴먼'이였다.

 

ai가 '인간답다'라는 이유만으로 수많은 호응과 반응을 갖는 지금, 앞으로이 미래시대는 ai와 인간이 어떻게 살아가게 될 것인가.