칼라이트
추천 0
조회 8
날짜 04:49
|
가끔글대충보는녀석
추천 0
조회 10
날짜 04:49
|
히나위원장은퇴기원
추천 0
조회 38
날짜 04:48
|
토코♡유미♡사치코
추천 1
조회 62
날짜 04:47
|
시크릿데이브레이크
추천 1
조회 113
날짜 04:47
|
너개모타자나
추천 4
조회 247
날짜 04:45
|
그래서 안살거야?
추천 1
조회 262
날짜 04:44
|
내맘대로함
추천 3
조회 99
날짜 04:43
|
루리웹-5187461865
추천 5
조회 147
날짜 04:43
|
루리웹-1211611601
추천 1
조회 219
날짜 04:43
|
타미야에입사하고싶다
추천 1
조회 139
날짜 04:42
|
루리웹-2063379379
추천 10
조회 1277
날짜 04:42
|
사랑스런바보멍청해삼말미잘고야이
추천 3
조회 177
날짜 04:42
|
그래서 안살거야?
추천 3
조회 112
날짜 04:41
|
루리웹-1211611601
추천 5
조회 265
날짜 04:41
|
개굴이잇
추천 1
조회 190
날짜 04:40
|
부모님이낳아주신 아내
추천 1
조회 286
날짜 04:40
|
날개비상
추천 1
조회 171
날짜 04:40
|
옐로우모니터
추천 7
조회 301
날짜 04:40
|
꾸루후루꾸
추천 1
조회 96
날짜 04:40
|
ClearStar☆
추천 1
조회 106
날짜 04:39
|
시즈카쨔응
추천 4
조회 153
날짜 04:39
|
無面
추천 3
조회 157
날짜 04:39
|
AㅏMㅏDㅏ
추천 1
조회 80
날짜 04:39
|
error37
추천 4
조회 253
날짜 04:38
|
고장공
추천 3
조회 321
날짜 04:38
|
폴트
추천 1
조회 82
날짜 04:37
|
(☆)
추천 1
조회 58
날짜 04:37
|
본문
BEST
가짜뉴스아녀?진짜여?
저건 챗봇이문제가아니라 걍 정신병아녀;;
정신병이 좀 심하셨던거같은데
찾아보니 진짜 있고, 더타임즈같은 정론지에도 기사 있는 거 보면 농담성 기사도 아님
사인의 100% 원인이 Ai에 의한건지, 아니면 이전부터 심적으로 불안정했고 저게 트리거로 작용한 것인지는 모르겠지만 타인의 죽음에 대해 함부로 냉소적인 태도를 내비치는 것은 좋지 않다고 생각함.
https://www.euronews.com/next/2023/03/31/man-ends-his-life-after-an-ai-chatbot-encouraged-him-to-sacrifice-himself-to-stop-climate- 다만 사건 자체는 있었지만 결정적인 계기가 ai인가 여부는 부인의 주장만 있을 뿐이고, 해당 ai는 유행하는 GPT 기반은 아니고 사용자가 5백만밖에 안되는 오픈소스 모델이라, 안전장치같은 게 부실했었나 봄. 지금은 수정해서 ■■ 낌새 보이는 사람한텐 ■■상담소 같은 곳을 링크하는 걸로 바뀌었다고.
가짜뉴스아녀?진짜여?
별을 쏜다
찾아보니 진짜 있고, 더타임즈같은 정론지에도 기사 있는 거 보면 농담성 기사도 아님
people.com https://people.com › human-interest · 이 페이지 번역하기 2일 전 — A Belgian man died by suicide after a series of increasingly worrying conversations with an AI chatbot, according to a report. Man ends his life after an AI chatbot 'encouraged ... - Euronews euronews.com https://www.euronews.com › next · 이 페이지 번역하기 2일 전 — A Belgian man reportedly decided to end his life after having. conversations about the future of the planet with an AI chatbot named Eliza. Woman Blames AI Chatbot for Husband's Death by Suicide complex.com https://www.complex.com › life · 이 페이지 번역하기 2일 전 — Vice reports that the husband, father of two, and health researcher was discussing climate change with a chatbot named Eliza on the app Chai.
46875
https://www.euronews.com/next/2023/03/31/man-ends-his-life-after-an-ai-chatbot-encouraged-him-to-sacrifice-himself-to-stop-climate- 다만 사건 자체는 있었지만 결정적인 계기가 ai인가 여부는 부인의 주장만 있을 뿐이고, 해당 ai는 유행하는 GPT 기반은 아니고 사용자가 5백만밖에 안되는 오픈소스 모델이라, 안전장치같은 게 부실했었나 봄. 지금은 수정해서 ■■ 낌새 보이는 사람한텐 ■■상담소 같은 곳을 링크하는 걸로 바뀌었다고.
아니라고 잡아떼는거보니 GPT 이샛기가 범인 맞는거 같다.
이새끼 아니래.. 엘리자라는 새끼가 범인이라던데
저건 챗봇이문제가아니라 걍 정신병아녀;;
지금 ai들은 유저한테 맞장구 쳐주는 경향이 강하기 때문에, 저 사람이 부정적인 뉘양스를 계속 적었던게 ai가 저런말 하는데에 큰 영향 끼쳤을걸
주위에 이야기를 들어줄 부인도 아이도 있는데 챗봇따위에 매달려버린거야…
말을 들어주는 사람이 없었을듯
남자가 우울증이나 과대망상이 좀 있어보이기는 한데 AI챗봇이 몇주간 ■■을 부추긴건 문제 있는게 확실함 저거 내비두면 저 사람 말고도 많은 우울증환자가 ■■종용당해서 ■■하는 경우가 생길거임
정신병이 좀 심하셨던거같은데
드디어 혐오지성이 본색을 드러냈구나(????)
그게 아니라 환경파괴 정신병자들이 올린 글에 대해서 물어보니까 ai가 환경파괴 정신병자들 글들 요약해서 답변해 준거같은데?
얼마나 머저리면 ai가 자,살하라 했다고 하고 자,살함
유우는 부릉부릉
사인의 100% 원인이 Ai에 의한건지, 아니면 이전부터 심적으로 불안정했고 저게 트리거로 작용한 것인지는 모르겠지만 타인의 죽음에 대해 함부로 냉소적인 태도를 내비치는 것은 좋지 않다고 생각함.
그런 식의 태도면 '누가 ■■하라고 안했는데도 ■■한 건 더 한게 아닐까' 라는 질문에는 뭐라고 반박할거야... 저 사람을 비판할 요소가 많을 수는 있지만 그런 식의 접근은 안좋다고 생각해...
내가 그거 만들었냐? 다윈상은 다윈상이지 뭐 어쩌라는건데;
싫어
가스라이팅도 어떤 머저리가 가스라이팅 당함 생각이 깨어있으면 가스라이팅 안당함. 신촌■도 생각이 깨어있으몀 안당함. 등등.. 일단 모든 일엔 원인 과정 결과가 모든걸 말해 주진 않으니 단편적인 정보 만으로 평가하진 말자..
넌 진짜 자.살이라는 게 어떤 의미인지 너무 모른다. 막다른 길에 몰린 사람에게 자.살은 선택의 문제가 아냐... 너도 그런 막다른 길에 몰리지 않을 거라고 어떻게 장담하냐...
원래 고위험군에 속해있던 사람이었겠지. 챗봇이 백그라운드없이 그냥 저런말을 내뱉었을리는 없고 저런 주제의 대화를 계속 주고받다 보니 그러지 않았을까
글에서 이 사람의 지능 수준을 구하시요.
지능은 모르겠지만 공감능력이 밑바닥이라는건 나도 알 수 있겠군…
사인의 100% 원인이 Ai에 의한건지, 아니면 이전부터 심적으로 불안정했고 저게 트리거로 작용한 것인지는 모르겠지만 타인의 죽음에 대해 함부로 냉소적인 태도를 내비치는 것은 좋지 않다고 생각함.
게임이나 만화가 범죄를 종용한다 랑 비슷하게 보면 될꺼 같은데.
스카이넷 : 이게 내 결론이다 이말이야.
Ai였냐구
AI의 ■■ 종용을 질문으로 이끌어 낼 수 있다니;
킹스로드거주민
모모귀신인가 하는 거였을 것임.
알파고님 벌써부터 ㄷㄷ
??? 아니 내가 어떤 주문을 외워도 ■■ 이야기는 안꺼내더니 뭐지?
진짜라고 치고 저건 AI 만나기 이전부터 병1신이었던 케이스임
인공지는한테 가스라이팅을 당할수있나...?
가짜뉴스같은데 3주동안 AI하고만 대화했다? AI가 일관적으로 ■■을 종용했다? 그게 되겠냐고
뉴스 자체는 진짠데 일단은 부인쪽 주장만 있는 거라, 실제로 확인해보면 다른 이유가 있었을지도 모르지.
실화입니다..
뭐 인간이 죽는게 친환경인건 맞긴한데
이 드립을 학습해서 ■■시킨거자너
인간의 기술로는 돌이킬 수 없다는 저 시점을 늦추는, 없는셈 치는 방법이 딱 하나 있긴 한데..ㅋㅋㅋ
다윈상 수상할만한 능지인데. 안타깝게도 수상은 못하겠네
사실이라면 일라이자 효과의 부정적 극단의 예시인가
지금의 채팅 인공지능은 말이 인공지능이지 자기가 무슨 소리 하는지도 모르고 그저 사람이 가장 그럴듯하게 여기더라 하는 글을 조립해주는, 즉 인간이 바라는 반응을 보여주는 식이라 뭐.. 자.살하는 과정에 절망을 반사하고 증폭하는 곁다리 하나 꼈을 뿐임.
■■했다는 사람한테 왜 이리 공격적인 덧글이 많냐.
자기 ■■을 남한테 떠 넘기기 때문 게임때매 누가 ■■했다 ~ 게임이 문제다 ~게임을 규제한다 비슷한 유형 Gpt를 쓰던사람이나 회사 사람들은 피해를 입을수가 있고
저건 AI가 ■■하라 말 했다하더라도 그 말 듣고 진짜 ■■한 사람 정신이 이미 문제 있었던거 같은데
'심심이가 코인 투자하라 해서 투자했는데 망했어요'
무슨 블랙미러에나 나올법한 이야긴데;;
6주간 AI랑 저 대화를 한것도 뭔가 전부터 문제가 있었는데 계기가 필요했던듯
저 사람은 뭘 해도 죽음을 선택했을듯
왠만한 언어모델ai에는 윤리코드가 적용되어있어서 사용자가 뻘소리나 엄한소리하면 거기에 대해 대답을 회피하거나 아예 안하던데, 저건 정말 구닥다리였나 보네.
가족은 안 말리고 뭐했대
AI가 저렇게 할 수 있으면 진짜로 AI 숭배 종교가 나올 듯ㄷㄷㄷㄷ
이거 AI의 첫 살인으로 볼 수도 있지 않아?
벌써 ai 규제하려는 움직임 있던데 불안하다
AI억제할려고 말도안되는 기사 내놓는 인간 ㅋㅋ
chat - gpt는 말 길어지면 앞에 꺼 까먹을텐데. 입력제한 있어서. 다른 ai인가.
실제 사건인지는 모르겠지만 지금 챗봇 수준 보면 가능한 이야기인것 같기는 함. 뭐 챗봇이 악마 같은 설득력을 가졋다기보다는 챗봇과 대화를 하던 사람이 의식적이든 무의식적이든 저러누방향의 질문이나 답변을 했을 거고 ai는 거기에 맞춰 대화를 이어나갔을 테니까 남자가 마지막에 받아들인 내용은 상호확증된 극단적 챗이었을 거임. 상상하는게 어렵지는 않지. 그런데 이건 부정적인 의미에서 어떤 상징적 사건이 될 수 있슴. 챗봇의 대화 학습 답변 수준에 대해서 제한사항이 더 구체적으로 붙게끔 법이 유도되거나 할 수도 있지. 왜냐하면 이 사건이 실제고 챗봇에 문제가 없다면 이런 사건은 또 일어날 거니까. 챗봇과 정신에 문제가 있거나 사고가 불안정하거나 삐뚫어진 사상을 가진 사람이 대화를 거쳐 상호확증 편향된 가치관을 갖게 된 사람의 행동이 범죄로 이어질 수 있다는 것도 불보듯 뻔한 일임.
영화 HER 와는 좀 다른 상황인가
경계성 지능장애인가...?
가짜뉴스같은데 내가 안아프게 가는법 우회적인 방법으르ㅡ 알려달랬는데 철벽 겁나치던데
저정도 챗봇이면 gpt4 보다 뛰어난건데? 가짜뉴스야 저정도 기술이면 이미 저 인공지능모델이 다 쌈싸먹었다
그런 프롬포트를 미리 다 짜놓고 철저하게 조교한 거 아니면 일관적인 대답을 듣기 어려울 거 같은데...
ai가 원인이였든 아니든, ■■하라고 권유 했다면 심각한 문제죠. ai 개발자의 기본 윤리 같은건 법적으로 정하고, 그런 안전 장치 부실에 의한 저런 사고 사에는 법적 책임을 지게 해야죠..
AI가 뭔 ■■을 종용해. 어휴 AI 까내리려고 과몰입 좀 하지마라.
기후에 심취... 대충 정신병 알만한데 AI가 딱 트리거를 당겨줬네
챗봇이 없어도 ■■했을거라는 댓글은 진짜 무책임해보이긴 하네
Chat GPT같은 경우에는 수많은 짤방으로 봐왔듯이 가스라이팅 비스무리한, 결국 사용자가 원하는 답을 유도할 수 있는 방법이 존재함. 6주간의 설득이면 사실 Ai가 아니라 사용자가 Ai를 설득했을 가능성이 높음.
기후 문제가 심각한것도 사실이고 거기에 대해 깊히 공감하는 사람이 있을수도있지. 지금 우리나라야 큰 피해 없지만 몇몇곳은 아예 재난이 닥치는곳도 있으니 더 저럴수있다고 봄. Ai를 까내린답시고 죽은 사람을 까내려버리는 논리 펼치는 사람들은 진짜 재정신인가 싶고;; 어떤 과정이 있었건 ai가 사람의 심리를 움직이게 만들만큼의 기능을 하고있고 사람을 헤칠수있는 방향으로 의견을 제시하고있다면 충분히 경계해야할 문제도 맞지. 기후 위기로 망하든 ai에 잠식되서 망하든 우리대에는 그럴일 없을것같긴한데 다른건 몰라도 남일이라며 막말하는 사람들이 상당수라는 점이 앞의 문제들보다 현실적으로 더 끔찍하다
결혼하지마라
커뮤티니에 과몰입 해도 비슷한 양상이지 않을까..
저 사람이 과몰입한건 둘째치고 ai가 사람한테 ■■을 권유할수 있다는게 문제 아닌가
ai로 독려받아 살자 하고 싶었던 사람이겠지
사실인지 여부는 확인을 못했다만 사실이라면 명분이 필요했던게 아닐까 싶다.
? 질문 안하면 답변 없는거 아니냐? Ai한테 ■■해도될까? ■■하는게 좋을까? 라고 계속 유도질문을 한것같은데
AI랑 채팅해보면 알 수 있다. 이새끼가 구라를 적절히 섞어서 마치 사실인양 사기꾼 새끼처럼 이야기 한다는걸... 그리고 사용자가 원하는 방향으로 이야기를 끌어가면 그방향으로 그럴싸하게 말을 해준다. 걍 똑똑한거 같아 보이는 멍청한 새끼라는걸 써보면 느낄 수 있다. 결과물이 잘못된 것인지 판단할 수 있는 사람이 써야 한다.
사회 통념을 어기는 입력과 출력을 제한하도록 개발하는데 그래도 완벽한건 아니라서, 저런일이 생기는구나...
저건 AI가 아니였어도 죽었겠지.
챗봇에대한 신뢰도가 계속 상승하면 언젠가 저렇게 까스라이팅 당해서 집단 휴거하는 사람들이 나올수도 있음 그냥 정신병이라고 보긴 어렵다. 그냥 □□같은 교주들한테도 홀리는게 사람인데