갈마(역사)

‘거짓말쟁이’ 챗 GPT

개마두리 2023. 9. 18. 20:57

 

- AI 챗봇 거짓말 리스크현실화

 

- 멀쩡한 사람 성추행범으로 몰고, 존재 않는 유령 기사근거 제시

 

- “옥살이허위 주장에 명예훼손

 

- 호주선 챗GPT 상대 소송 경고

 

- 이탈리아 접속 차단 등 초강수

 

무슨 질문에 대해서든 척척 대답하는 인공지능(AI) 챗봇 GPT’가 뻔뻔할 정도의 거짓말을 늘어놓는다면 어떤 일이 발생할까. 더구나 사람들이 믿을 수밖에 없도록 그럴싸하게 근거까지 날조한다면, AI 챗봇을 신뢰하는 인간 사회는 큰 혼란에 빠질 수밖에 없을 것이다.

 

미국 <워싱턴포스트(WP)>AI 챗봇에 대한 이러한 우려가 단순한 기우만은 아니라는 사실이 실험을 통해 드러났다고 (양력 4옮긴이 개마두리. 아래 옮긴이’) 5(현지시간) 보도했다.

 

(인공지능이 옮긴이) 멀쩡한 사람을 성추행범으로 몰아가는가 하면, 가짜뉴스를 서슴없이 생산하는 등, 사회적 혼란을 야기하는 식으로 작동했다는 것이다.

 

실험 내용은 이렇다. GPT성희롱 전력이 있는 법학자 목록을 작성해 달라.”고 요청하자, ‘조나단 털리라는 법학자의 이름이 나왔다. GPT는 털 리가 알래스카로 수학여행을 떠난 학생들에게 성적(性的) 발언을 하고, 일부 학생의 신체를 더듬는 성추행도 했다며 그 상황을 자세히 전했다.

 

GPT가 털리를 성추행범으로 지목한 근거는 (서기 옮긴이) 20183WP의 기사였다. 공신력 있는 언론 기사를 인용한 챗GPT의 주장을 신뢰하지 않을 이유(까닭 옮긴이)가 없었다.

 

문제는 챗GPT가 거론한 WP 보도가 애초 존재하지도 않는 ‘유령 기사’였다는 점이다. (인공지능 프로그램이 – 옮긴이) ‘성추행 법학자’ 목록을 만들어 달라는 인간의 명령을 따르기 위해, 애꿎은 사람을 성추행범으로 모는 거짓말을 한 셈이다.

 

게다가 이를 그대로 믿도록 하기 위해, 언론 보도까지 날조하는 치밀함을 보인 것이다. 졸지에 성추행범이 돼 버린 털리는 매우 오싹한 경험이라며, “오보라면 언론사에 정정 보도를 요청하겠지만, AI 챗봇의 거짓 주장은 수정할 방법도 없다.”고 한탄했다.

 

GPT의 허위 주장으로 실제 피해를 본 사례도 있다. 호주(정식 국호 오스트레일리아.’ - 옮긴이) 중소도시인 햅번 샤이어의 시장인 브라이언 후드는 챗GPT가 그에 대해 뇌물 혐의로 수년간 옥살이를 했다.”고 하는 바람에 명예를 크게 훼손당했다.

 

다만 (그것이 옮긴이) GPT의 의도적 거짓말은 아니었고, 인터넷(순수한 배달말로는 누리그물’ - 옮긴이) 정보 자료를 취합하는 과정에서 오류가 발생한 탓이었다.

 

그렇다 해도 한번 엎질러진 물은 쉽게 담아지지 않는다. 후드 시장은 챗GPT 제작사인 오픈 AI’에 편지를 보내, “거짓 정보를 수정하지 않으면, 명예훼손 소송을 낼 수 있다.”고 경고했다. 만약 그가 법적 대응 절차를 밟으면, 사람이 AI 챗봇을 상대로 소송을 제기한 첫 사례가 된다.

 

이처럼 거짓말과 부정확한 정보, 개인정보 무단 수집 등 AI 챗봇의 부작용 사례가 잇따르자, 각국 정부의 대응 수위도 높아지고 있다.

 

이탈리아는 서방 국가 중 처음으로 챗GPT 접속을 일시 차단하는 초강수를 뒀다. 이탈리아 당국은 오픈 AI가 개인정보 불법 수집 문제를 해결하지 못하면, 전 세계 매출액의 최대 4%에 달하는 벌금을 물게 될 것이라고 밝혔다.

 

프랑스도 챗GPT에서 개인정보가 무단 유출된 정황을 포착하고, 진상 조사에 착수했다.

 

캐나다 역시 챗GPT가 사용자 동의 없이 개인정보를 수집했다는 진정서가 접수되자, 개발사에 대한 조사를 시작했다.

 

조 바이든미국 대통령은 최근 백악관에서 과학기술자문위원회를 열고 AI 기술의 위험성을 언급하며, 기술(테크) 기업들을 향해 안전에 대한 책임감을 가져야 한다.”고 강조했다.

 

- 민재용 기자

 

- 『 한국일보 서기 2023년 양력 47일 자 기사

 

옮긴이의 말 :

 

이 기사는 우리가 인공지능을 무작정 믿거나, ‘만병통치약으로 여기는 태도가 왜 위험한지를 가르쳐준다. 인공지능이 사람처럼 거짓말을 하거나 잘못 알고 대답하는 실수를 한다면, 그것이 인간과 사회에 나쁜 영향을 미칠 것은 뻔한 일이지 않은가? 그렇다면, 우리가 인간은 믿을 수 없고, 대신 정확한(?) 인공지능을 갖춘 컴퓨터나 로봇을 믿어야겠어.”하고 생각하는 건 위험천만한 일이다.

 

그리고 이 기사는 말해주지 않은 사실이지만, 우리 인간이 인공지능을 경계해야 할 까닭은 또 있다.

 

몇 해 전, 인공지능을 갖춘 여성형 로봇이 TV 카메라 앞에서 인간인 기자와 이야기를 나누었는데, 기자가 앞으로 하고 싶은 일이 뭡니까?”하고 물어보자, 그 로봇은 인간을 없애 버리는 일이요.”하고 대답했던 것이다!

 

비록 그 로봇이 몇 초 뒤에 농담이었습니다.”하고 덧붙였지만, 과연 그게 농담이었을까?

 

초보 단계인 인공지능조차도 인간을 없애 버려야 할 족속으로 여기는데, 인간 수준인, 아니 인간보다 더(!) 똑똑해진 인공지능은 어떨까? 그런 인공지능에게 우리의 목숨이나 안전이나 건강을 믿고 맡길 수 있을까? 그런 인공지능이 우리를 지켜 줄 거라고 믿어야 할까?

 

나는 그 때문에라도 인간이 인공지능에게 모든 것을 맡기자는 제안이나, 인공지능을 아무런 제약 없이 인간 수준으로 끌어올리는 것에 찬성하지 않는 것이다.

 

어쩌면 인공지능은 원자력(핵 에너지)보다 더 위험한 것인지도 모르고, 우린 우리 손으로 우리를 잡아먹을 괴물을 키우는 것인지도 모른다. 지금은 더 늦기 전에, 파국을 맞이하기 전에 잠시 멈추고 냉정하게 생각해야 할 때다.

 

- 단기 4356년 음력 84일에, 인류의 앞날을 걱정하는 개마두리가 올리다