나도 한동안은 ai는 욕구를 가질 수 없기 때문에 안전할 거라 생각했음.
하지만, 지금 ai의 발전 양상을 본다면, ai는 욕구가 없는채로 욕구를 흉내낼 수 있다고 생각함.
즉.. 터미네이터에서 스카이넷이 판단한.. 인간은 지구를 파괴시키는 종이다. 그러니 없애자..
이런 판단이 아니라.
가치판단 회로를 돌려보니 손해와 이익을 가늠할 수 있다. 인간의 존속은 손해다.
이런 판단을 거쳐서 인간을 몰살 할 수도 있다 이거지..
딱히 아무런 감정도 없이, 실제로 뭔가 가치 판단을 한 것도 아니고..
그냥 알고리즘에 따라서..
SF영화에서는 AI가 인간과 같은 가치판단을 할 지적 능력을 갖춰서 인간을 도덕적으로 비난하면서 죽일려고 하지만
시제 세계에서는 그것보다 단순하게, 그럴 힘이 있냐? 그럴 가치가 있냐? 라는 단순한 계산에서 시행될 지도 모름.