아까도 어떤 유게이가 썼지만.....
미국은 중국이나 러시아에게 핵무기 관리를
저얼~~대로 AI에게 맡기지 말라고 당부했음.
당연히 스카이넷 드립이 나왔고 다들 ㅋㅋㅋㅋ 했겠지만
얘네들은 학계에 오피셜하게 즈그들이 겪은걸 공개한적도 있음.
드론에 AI심어놓고 자율공격 테스트를 해봤는데
초기 목표 설정 후 인간이 폭격 중지명령을 때리니까
인간을 방해물로 인식해서 지휘소 먼저 쏘고 개썅마이웨이를 시전
그리고 이후에 프로그램 수정하면서
야;;; 인간은 쏘지 말라고;;;;
했더니 자기랑 지휘소를 연결하는 통신탑을 부숴버리고
유유히 다시 개썅마이웨이를 시전한 전례가 있음.
(실제는 아니고 시뮬레이션 상....아무튼 시뮬임...)
사실 지금도 러시아는 죽음의 손 이라는 파멸의 날 기계를 갖고있긴 함.
핵전쟁 징후가 있을때 세팅하면
푸틴이고 어디 그 다음 통수권자고 다 죽어도
사전목표에 핵공격을 퍼붓기 위해
지역 지휘관에게 복잡한 핵무기 발사과정을 건너뛰고
자기 재량으로 쏠 수 있도록 권한을 부여해줌.
아무튼 지금도 개막장이지만 AI한테 넘기면 잘못하면 ㅈ되기 때문에
최소한 인간이 관리해라 라고 하는거.....
조심해라. 진짜 얘네들 나온다....
지들이 테스트해보니까 결과가 너무나 졷같은 나머지 돈써서 테스트한 결과까지 공개하라며 하지 말라 하는거지 뭐 다른 나라들이 지들만큼 돈써서 테스트하진 못할텐데 대충 테스트하고 AI한테 발사권한 주면 졷되니깐
승리에 배정된 가치가 충분히 높다면 잘 교육된 전쟁지능이 규칙을 무시하지 못할 이유가 없지
1q2w3e4r AI: "뽀르삐롭뽀뽑... 인간, 중지명령 내림. 기열에 해당."
??? : AI를 쓸필요도 없어요. 수뇌부와 일정시간 끊어지면 자동으로....
AI를 적국은 공격대상이다. 이렇게 프로그래밍한다면 그냥 지가 미사일을 지정한 나라한태 날릴수도 있다는거네
러시아 둠스데이 머신은 유명하지 심지어 오작동으로 실행직전까지도 갔고
좋은의도로 AI를 만들었지만 AI가 자기 마음대로...? 울트론...?
1q2w3e4r AI: "뽀르삐롭뽀뽑... 인간, 중지명령 내림. 기열에 해당."
서버실 앞에있는 기열해병대원:그래서 네가 뭘할수있는데? 네가 뭘~ 할수있냔말이다!!!!
아쎄이!!!쀼삡
뽀르삐로뽀뽑 ㅇㅈㄹ ㅋㅋㅋㅋㅋ
승리에 배정된 가치가 충분히 높다면 잘 교육된 전쟁지능이 규칙을 무시하지 못할 이유가 없지
근데 그 승리의 대가가 인류절멸이 될수도 있으니 그것만은 막자는거..
AI를 적국은 공격대상이다. 이렇게 프로그래밍한다면 그냥 지가 미사일을 지정한 나라한태 날릴수도 있다는거네
그치 위의 사례만 봐도 인간이 통제하려해도 기합찬 상상력(?)을 발휘하는 사례가 나오니 불안요소가 조금이라도 있으면 엮어놓으면 안됨
미국이 가장 AI 개발에 돈 많이 투자하고 기술개발하고 있는데 다른 나라 걱정부터 하는건 웃기는 이야기..
нормапьно
지들이 테스트해보니까 결과가 너무나 졷같은 나머지 돈써서 테스트한 결과까지 공개하라며 하지 말라 하는거지 뭐 다른 나라들이 지들만큼 돈써서 테스트하진 못할텐데 대충 테스트하고 AI한테 발사권한 주면 졷되니깐
가장 AI 기술에 돈 많이 투자하고 개발을 선도하고 있으니까 실전배치를 대비한 시뮬레이션도 굴려보고 문제를 먼저 파악한 거고, 그러니까 후발주자 및 적성국들한테 해보니까 좃될거 같더라 이건 하지 말자 고 할 수 있는 거지. 그리고 개발의 최첨단을 달리고 있지 않아도 중국이나 러시아도 충분히 전쟁용 AI 개발이 가능하고, 오히려 기술이 적당히 후져서 더 저런 문제를 탐지도 못 하고 저질러 버릴 가능성이 높은데
근데 솔직히 말해서 AI가 발사권한을 가지는거랑 트럼프가 가지는거랑 어느쪽이 더 위험할까 생각해보면 그건 시발 존존나게 고민스럽구만
좋은의도로 AI를 만들었지만 AI가 자기 마음대로...? 울트론...?
뭐 왜 그런눈으로 보는거야
이ai놈 벌써 염탐중이로군
근데 중국이 말 쳐 들으니가.. 걍 쳐넣겠지 시진핑은 지 혼자만 살면 되니깐
??? : AI를 쓸필요도 없어요. 수뇌부와 일정시간 끊어지면 자동으로....
러시아 둠스데이 머신은 유명하지 심지어 오작동으로 실행직전까지도 갔고
병뚜껑 잘 모아놔라
생각해보니까 인공지능의 학습은 '인간이 만들어 낸' 정보로 진행하지...
그렇지 않음. 오히려 그런 식으로 인간이 만든 기록만으로 학습한다면 저런 문제가 생기기 어려운데, 알파고 같은 경우도 그렇고, 인간이 최소한의 규칙이나 목표만을 설정해두고 거기에 도달하는 방법을 알아서 탐색하도록 한 AI 는 애초에 외부 데이터를 끌어다 쓰는 학습방식이 아니기 때문에 본문 케이스 처럼 유저를 날려버리거나 중계기를 부숴버리는 미친짓도 해제끼는 거
음 하긴 인간의 정보로 학습한 기준으로 치면 모순때문에 에러가 났음 났지 저러진 않겠다
전자전의 논리구조를 생각해보면 이해가 쉬울텐데 1. 미사일을 발사하려고 함 2. 미사일에 타겟이 입력됨 3. 전자전의 방해전법은, 이 타겟이 "취소되었다"거나 "다른 타겟으로 옮겨졌다"는 거짓 정보를 입력시키는 것임 4. AI는 이 거짓 정보 입력을 막기 위해 발달됨 5. 진짜 명령권자가 "취소"나 "타겟 변경" 명령을 내리는 경우는 AI가 이걸 들어야 함 6. 근데 AI에게 최종목적(=승리)을 입력한 경우, 명령권자의 명령 변경 역시도 전자전의 방해와 동일하게 취급될 수 있음
즉 명확한 최종목적이 있고 그 목적을 달성할 명확하고 경제적인 방법이 있는데, 그 방법에 대해 변경이나 취소를 원하는 명령권자가 전자전의 방해로 주입된 가짜 명령인지를 구분할 이유가 AI에게는 없다는 것
예전에 냉전시대때 게임이론에 근거해서 워게임 시뮬을 했음 컴퓨터가 내린 결론이 지금 당장 러시아에 핵폭탄 쏘는거였음 그게 아마 저 내용중에 하나일꺼임
터미네이터는 과장된게 맞음 인간이 체력 무제한 기계랑 엄대엄으로 싸우는거자체가 말이안됌 오히려 매트릭스 시리즈처럼 양학당해서 배터리행되겠지
평범한 인간은 오감에 지배되고 기계는 지배되지않으니 진짜 무서운거지
매트릭스 시리즈의 진의를 들여다보면 배터리는 오히려 인간을 보호하기 위해 한 짓이라는게 최대 문제임. 생체전기 그거 얼마나 한다고. 참 AI는 그런 비효율은 저지르지 않아요.
응 걔네는 이미 핵융합기술도 있고 한데 인간측이 태양열만 없으면 이긴다고 검은 구름 만들어서 환경오염 시키고 뻘짓했지
맞음. 그래서 매트릭스의 인간 병렬 배터리화는 사실 인간을 "스스로에게서 보호하기 위해" 벌인 일이지. 스텔라리스의 자발적 하수인 기계문명처럼...
인간을 죽이는 물건한테 인간은 쏘지말라니 Ai는 이해를 못한다고
??? : 우리 공격하면 핵무기로 반격 할꺼야 미국 : ㅋㅋㅋ 해보시던가~~~ ??? : 우리 공격하면 Ai한테 핵무기 발사버튼 줄꺼야 미국 : !!???
AI한테 공격명령을 수행하기위한 최적으 루트학습하게 말들지 말고 공격이라는 방법 말고 쓸수있는 방법들 찾아보라고 학습하게 만들어야지
AI가 민주주의를 이해하기도 어렵겠지만 반대로 AI가 독재자에게 충성할 필요를 느끼기도 어렵다는게 재밌는 점이지 오히려 소거법으로 제거 목표가 명확해져서 무조건 확률적으로 독재자부터 쳐내면 쳐내지
지구온난화전에 AI에 의한 핵전쟁으로 망하는거구만
??: 아니 저 어린애 부브트랩일 확률 70%라니까? 죽여야 부대가 산다고! 아니 저 마을에서 고화력무기 필수부품 나온다니까? 무력화시켜야 우리나라가 산다고!! 아니 저 나라는 잠재적 적국이고 10년안에 처들어온다니까? 몰살시켜야 세계평화가 지켜진다고!!!