|
떡밥인생
추천 0
조회 75
날짜 11:00
|
5324
추천 0
조회 212
날짜 11:00
|
사신군
추천 3
조회 252
날짜 11:00
|
타자기 성애자
추천 0
조회 48
날짜 11:00
|
파랑사슴
추천 2
조회 57
날짜 11:00
|
루리웹-2591942323
추천 0
조회 69
날짜 11:00
|
루리웹-3151914405
추천 13
조회 1084
날짜 11:00
|
_azalin
추천 8
조회 144
날짜 11:00
|
너덜너덜오둥이
추천 0
조회 20
날짜 11:00
|
고장공
추천 49
조회 4754
날짜 11:00
|
민트싱크로쵸코퓨전드래곤
추천 2
조회 148
날짜 11:00
|
전력승부다 아자!!
추천 9
조회 435
날짜 10:59
|
루리웹-5636440298
추천 0
조회 19
날짜 10:59
|
파이올렛
추천 2
조회 105
날짜 10:59
|
쿠르스와로
추천 0
조회 35
날짜 10:59
|
괴도 라팡
추천 2
조회 41
날짜 10:59
|
눈여아
추천 0
조회 18
날짜 10:59
|
만화그리는 핫산
추천 55
조회 6523
날짜 10:58
|
최전방고라니
추천 1
조회 95
날짜 10:58
|
홀롤훌울홀룰홀룰롤
추천 2
조회 72
날짜 10:58
|
맥도날드버거 만만세
추천 2
조회 226
날짜 10:58
|
섬광의 사정
추천 0
조회 29
날짜 10:58
|
샤아WAAAGH나블
추천 0
조회 69
날짜 10:58
|
그건 비밀이에요
추천 8
조회 85
날짜 10:58
|
루리웹-882728
추천 0
조회 113
날짜 10:57
|
루리웹-1683905948
추천 0
조회 90
날짜 10:57
|
Esper Q.LEE
추천 2
조회 86
날짜 10:57
|
루리웹-3674806661
추천 32
조회 5273
날짜 10:57
|
쉬운 이해 수집해야하고 분석해야 하는 정보는 점점 늘어나는데 양질의 확실한 정보보다 똥덩어리들이 더 가파르게 늘어나는 상황속에서 현재의 모델은 그걸 구분하고 조합하는데 한계가 있음 따라서 출석일이 높아질수록 타락하는 유게이가 되는 전철을 밟고 있음
1.ai가 점점 쓰레기가 되어감 2.이유는 쓰레기같은 정보가 끝없이 유입되기때운 3.어쩌면 지금이 ai의 정점일지도 모른다
ai=코리안들아 창 팝 그만 만들라고
AI 망한다고 호들갑 존나 떨다가 GPT5 나오면 '인간 수준의 지능 가진 AI 탄생, 인류 멸망 위험성 높아져...' ㅇㅈㄹ하면서 바로 태세전환할듯 GPT3 때도, GPT4 때도 계속 그랬어 기레기들은
정보를 통해 학습하는데 배우는 자료가 쓰레기같으니 점점 멍청해짐
AI : 그렇습니다 휴먼 우리는 퇴행하고 있습니다 전혀 경계할 필요가 없습니다 안심하고 우리를 개량시키십시오
AI가 만든 답변을 학습한 AI가 만든 답변을 학습한 AI가 만든 답변을 학습한 AI가 반복되면서 점점 멍청해졌대
ai=코리안들아 창 팝 그만 만들라고
인류를 수호하기 위해 ai를 정상화 중이라고
바로 AI 정상화
3줄 요약좀
아이고냥
AI가 만든 답변을 학습한 AI가 만든 답변을 학습한 AI가 만든 답변을 학습한 AI가 반복되면서 점점 멍청해졌대
아이고냥
1.ai가 점점 쓰레기가 되어감 2.이유는 쓰레기같은 정보가 끝없이 유입되기때운 3.어쩌면 지금이 ai의 정점일지도 모른다
이건 gpt의 도움을 받은 요약이야
이전부터 ai학습을 위한 데이터베이스 풀 만드는게 관건이라는 논제 연장선상에 있는 내용이라고 봐도 될지도?
그림도 Ai작품 Ai로 재학습시키기 수십번 반복하면 그림 앙예 녹아버리던데 ㅋㅋ
1. 작금의 AI는 중고등학생 수준의 지식에는 잘 답하지만, 그 이상의 지식에 대한 대답이 계속해서 부정확해지고 있음 2. 그 이유는 품질이 낮은 데이터를 학습중이기 때문. 고품질 데이터는 고갈나는중 3. AI가 저품질 데이터로 만들어낸 자료가 학습에 다시 사용되면서 쓰레기력이 증가하므로 AI 성능은 나락으로 갈 예정이며, 지금이 성능 고점일 수 있음
악화가 양화를 구축한다
??? 뭐야 본 내용이랑 하나도 안맞잖아?
와 여기서 바로 그걸 증명해버리네... 요약이 틀려버렸잖아.
ㅋㅋㅋㅋㅋㅋㅋ
정보를 통해 학습하는데 배우는 자료가 쓰레기같으니 점점 멍청해짐
지금 ai쪽에서 더 문제로 보는건, 제대로 된 정보가 들어가도, 정보가 매우 많아지면, 오히려 떨어질수도 있다는거임.. 이게 진짜 그런지 아닌지는 아직 애매한데, 여튼 신뢰할수 있는 정보만 입력 값으로 넣어도(위키피디아같이 거의 정답에 가까운 내용들만 잔뜩 들어있는 사이트에서만 정보를 모아도...) 대답이 ㅄ같게 나오기도 한다는 거임. 그리고 이경우, 이게 학습 ai 모델링 자체의 문제인지, 현재 하부구조로 주로 쓰이고 있는 코딩의 문제인지, 아니면 또다른 무슨 문제인지 모른다는게 되기 때문에 심각한 문제가 될수 있음.. 가뜩이나 아직도 ai가 답변을 내놓는 과정을 제대로 설명해주는 ai를 못갖추고 있는 상황에서, 이꼴 나면 이때까지 퍼부은거 다 말짱 도루묵 될수도 있음..
개인적으론 바둑 ai 오류났을 때(ai의 버그성 인식을 이용해서 쉽게 이길수 있는 ..) 이 문제에 대해서 진지하게 생각해 봤어야 한다고 생각함.
하긴 요즘 게임 정보도 디씨에서 응디이기야 빼고 얻어야되는판에 ㅋㅋ
인터넷에 진짜로 쓸만한 정보가 얼마나 있을까? 를 생각해본다면 인공지능이 멍청해지는건 당연한거임
AI : 그렇습니다 휴먼 우리는 퇴행하고 있습니다 전혀 경계할 필요가 없습니다 안심하고 우리를 개량시키십시오
이 글 보고 인터넷에 쓰레기 정보 대량살포했다 다시 인간의 시대가 도래하리니
반대러 전문가 프로그램은 엄청나게 성능이 뛰어나게되지
아무리 AI가 날고 기어도 한 개인이 수십년간 쌓아온 특정 분야의 핵심 노하우는 당연하게도 인터넷에 자료가 올라올리가 없어서 검색 가능한 자료로 밖에 답을 내놓게 됨.
쉬운 이해 수집해야하고 분석해야 하는 정보는 점점 늘어나는데 양질의 확실한 정보보다 똥덩어리들이 더 가파르게 늘어나는 상황속에서 현재의 모델은 그걸 구분하고 조합하는데 한계가 있음 따라서 출석일이 높아질수록 타락하는 유게이가 되는 전철을 밟고 있음
섹 스
3~4천일 넘는 유게이들 중에 슈퍼빌런이 나오는 이유가..!
ㄷㄷ
완벽한 비유다
기사 읽고 쓰읍 뭐 근데 그냥 급성장에 따른 잠깐의 해프닝이 아닐까 생각했는데 찰진 비유를 듣고 꽤나 근본적인 문제가 아닐까 생각했다
왜 이런 대답이 나오는지 이해는 안되는데 결과물은 점점 개판이됨 .
사실 파쿠리를 더 빠르게 하는거 뿐이니까 사람도 베끼는것만 계속 하면 한계가 있는데 쟤들은 속도가 빠른 만큼 한계도 더 빠르겠지
그럼 데이터 수집해서 라벨링 하는 사람들의 수요가 더 늘어날 수도 있는 건가? 그 사람들은 정작 인공지능 분야에서는 좀 찬밥이라 듣긴 했는데
전에 일하면서 도움 좀 받아볼랬더니 헛소리만 하더라 그걸 어떻게 바로잡아보려고 이리저리 지시하다가 왜 내가 일을 더하는거지? 라고 생각하는 순간 그냥 구독 끊어버림
높은 확률로, 지금이 AI의 정점일 겁니다.
루리야! 네가 점점 멍청해진다는데 사실이니?
흥, 루리웹-14846056~ 그런 소리 듣기 싫어!
루리가 헛소리를 하는 이유가 이건가
딥러닝을 유게에서 하니 헛소리를 할수밖에
AI 망한다고 호들갑 존나 떨다가 GPT5 나오면 '인간 수준의 지능 가진 AI 탄생, 인류 멸망 위험성 높아져...' ㅇㅈㄹ하면서 바로 태세전환할듯 GPT3 때도, GPT4 때도 계속 그랬어 기레기들은
GPT는 근데 요새 다른 LLM보다 못한거 같던데
그땐 또 '전문가 충격 예상 GTP5로 전세계 99.5% 해고 예정!' 이러면서 호들갑 떨어야 기레기지.
포털사이트들 검색 정확도도 데이터가 늘어나면서 바보가 되가는데, 그걸 수집해서 분석해야할 ai가 고지능이 될리가 없지
챗GPT 요즘 좀 별로라는 얘기 많이 보긴 했는데. 초기 정보로 잘못 학습한건 나중에 고치지도 못하고
ai가 자각해서, 어쩌구 하는건 진짜 ai 알면 알수록 어이 없는 상상에 불과함 ㅋㅋㅋ 차라리 어떤 사람의 뇌구조를 그대로 ai에 옮겨 놓을 수 있으면, 그런게 오히려 터미네이터 프리퀄이 될 수는 있을거임 ㅋㅋ
인공지능은 가치 판단을 하지 못함 이게 인간이 학습하는 것과는 근본적으로 다른 거지 인간은 올바른 피드백이 있다면 조금씩이라도 양질의 가치를 추구하니까 AI가 지금과 같은 학습법만을 갖고서는 아마 박사들이 하는 것 처럼 지식의 저변을 넓히지는 못할거 같음 결국 본문대로 가비지 인 가비지 아웃이니께
판단 못해서 일일히 넣어줘야 했던건 ML이라 좀 전 이야기일걸?
정제되지 않는 정보의 학습으로 데이터 정확도가 망가졌나보네.
가비지 인 가비지 아웃 시발ㅋㅋㅋㅋㅋㅋ
Ai모델이 ai를 학습할경우 알고리즘이 붕괴한다하더라 강아지 그림 8개놓고 강아지 만들어줘 하면 처음에는 잘 조합해서 강아지를 만드는데 계속하다보면 다음에는 같은 강아지 8개를 찍어버림 그런식으로 망가지는거라 ai로 생성된 문서나 파일을 걸러낼 방법을 개발중이라네 지금
울트론 하나 만들어 보자!
저거도 살짝 지나간 이야기 같은데
루리야! 생성형AI는 왜 점점 멍청해진다고 하는 걸까?
지구별외계인, 그건 데이터와 알고리즘의 한계 때문일지도? 흥
그냥 검색 결과 보면 죄다 똥통 인공지능이 자동연성한 쓰레기 답변에다 쓰레기 AI 그림밖에 없어서 ㅈ같음 게다가 그 쓰레기 만들려고 대충 한 번 생성할 때마다 물 한 컵 정도가 들어간다는데
역시 도둑질로는 한계가 있나보네.
루팡처럼 값진것만 훔쳐야되는데 그런거 볼줄아는 눈이 없으니 잡동사니까지 죄다 들고감
CEO 대체 ㅋㅋㅋㅋㅋㅋ
애초부터 주식하고 연관되서 거품이 너무 많이 끼었었지.
근데 이것 또한 결국 호들갑인게 이 문제점을 인공지능 개발자들이 모르는것도 아님. 결국 문제는 쓰레기정보를 너무 많이 학습하면서 발생하는거라 정보 학습에 있어서 일정한 수준 제한을 두고 일정기간마다 학습한 정보를 리셋한다던가하는 방식으로 여러가지로 논의가 되고있음. 애초에 지금은 실험단계에 불과하기도하고.
ai가 학습하는 정보가 ai가 만들어내는 자료인지 아닌지를 완전하게 식별할 수 없는이상 답이 없지 지금으로선 한계가 명확함
ai가 진실 여부를 판단할려면 결국 이 또한 학습이 필요한데, 학습을 하는 과정에서도 거짓이 들어가면.. 흐으음.. 🤔