ウィキペディアをウソ情報「毒」で汚染すると…生成AIはウソを学習、偽情報をアウトプット(読売新聞オンライン) - Yahoo!ニュース
정보편식 : 왜곡된 지식 제6부 요구가 되는 규범(2)
인터넷 상의 백과사전 위키피디아 에서 독을 넣는것으로, 이것을 학습을 하는 생성AI(인공지능)으로 허위 정보를 퍼뜨릴 수 있게 된다. 미 구글의
연구자들은 작년 2월, 그런 논문을 공표하여, 주목을 모았다. 독이란 악의로 가득찬 거짓 정보를 일컫는다. 위키피디아 에는, 비교적 신뢰할 수
있는 대량의 정보가 모이고 있다. 인터넷 상에서 수집을 한 데이터를 바탕으로, 이용자의 지시에 대응하는 문장과 사진, 음악을 만들어 내는 생성
AI에게 있어서, 좋은 학습의 장이다. 허위 정보를 대량으로 학습을 하면, 그것을 반영을 한 답변을 출력한다. 예를들어, 어떤 정치가에 대해서 "차
별주의자다" 라고 거짓말을 하게 할 수도 있다.
이러한 사이버 공격은 "데이터 포이즈닝" 으로 불리고 있다. 악의가 있는 사람이 만든 독으로 학습 데이터가 오염이 되는 모습을 독살(포이즈닝)
이라는 이름을 붙이게 되었다. 위키피디아는, 세계 속에서 이용자가 편집에 참가를 하고 있으며, 허위 정부를 표시 시켜서 지속하는 건 어렵다.
하지만, 특정의 타이밍에서 거짓을 쓰게 되는 것으로, 그것이 가능하게 된다고 한다.
논문의 공동 집핍자 중 한 명으로, 스위스 취리히 공학대학의 플로리안 트레이머 준교수는 "위키피디아 에는 이미 실험결과를 전하여, 주의를 줬
다" 라고 얘기를 한 후, 이렇게 덧붙였다. "인터넷 상에는 방대한 데이터가 있고, 언제라도 독을 넣을 수 있다. 정치적인 목적으로 행해지는 것도
우려가 된다"
공격으로 부터 AI를 지키기 위해서, 미일영호 등 11개국은 1월, 국제 지침에 서명했다. 이 중에선 데이터 포이즈닝은, AI로 부터 지정이 되는 다섯
가지의 위협의 필두에 나타나 있다. 지침은 "AI가 부정확하고 치우치고, 악의가 있는 답변을 할 가능성이 있다" 라고 경고한다. 지침은, 미국 마이
크로 소프트가 2016년에 공개했다. SNS에서 이용자와 대화를 하는 AI 테이의 케이스를 예시로 한다. 이용자의 부적절한 발언이 독이 되어서, 치
우쳐진 답변을 하도록 하게 되었다. 공개 중지가 되기 전에, 테이는 이렇게 말했다. "히틀러는 맞았다"