.
[S/W] "2년 내 LLM 학습 데이터 고갈...데이터 문제로 AI 발전 중단될 것"
|
사쿠라모리 카오리P
추천 1
조회 455
날짜 11:54
|
헤엄치는용
추천 2
조회 2291
날짜 10:09
|
라스트리스
추천 3
조회 1415
날짜 10:06
|
사쿠라모리 카오리P
추천 0
조회 391
날짜 09:09
|
사쿠라모리 카오리P
추천 0
조회 212
날짜 09:07
|
사쿠라모리 카오리P
추천 1
조회 1278
날짜 07:19
|
사쿠라모리 카오리P
추천 0
조회 290
날짜 07:07
|
사쿠라모리 카오리P
추천 0
조회 500
날짜 07:06
|
TopSpoiler
추천 1
조회 898
날짜 00:20
|
빡통이
추천 14
조회 7335
날짜 2024.05.20
|
빡통이
추천 10
조회 4088
날짜 2024.05.20
|
사쿠라모리 카오리P
추천 0
조회 713
날짜 2024.05.20
|
사쿠라모리 카오리P
추천 0
조회 1079
날짜 2024.05.20
|
건전한 우익
추천 0
조회 1026
날짜 2024.05.20
|
사쿠라모리 카오리P
추천 0
조회 313
날짜 2024.05.20
|
헤드샷21
추천 0
조회 1423
날짜 2024.05.20
|
사쿠라모리 카오리P
추천 1
조회 1606
날짜 2024.05.20
|
사쿠라모리 카오리P
추천 1
조회 1589
날짜 2024.05.20
|
사쿠라모리 카오리P
추천 7
조회 10548
날짜 2024.05.20
|
김샌디
추천 6
조회 10773
날짜 2024.05.20
|
GPixel
추천 15
조회 18412
날짜 2024.05.19
|
lille
추천 5
조회 10232
날짜 2024.05.19
|
사쿠라모리 카오리P
추천 0
조회 587
날짜 2024.05.19
|
불꽃남자 쟈기만
추천 7
조회 7765
날짜 2024.05.19
|
사쿠라모리 카오리P
추천 2
조회 2096
날짜 2024.05.18
|
사쿠라모리 카오리P
추천 0
조회 2997
날짜 2024.05.18
|
김샌디
추천 15
조회 7679
날짜 2024.05.18
|
사쿠라모리 카오리P
추천 0
조회 1167
날짜 2024.05.18
|
무지성 학습하기에는 이미 고갈수준이 맞구요 학습 알고리즘이 개선되고 GPT가 했듯이 학습을 정제하면서 해결될 것으로 보입니다 그리고 AI 생성물로 자기지도 학습 하는거도 이미 수많은 논문이 나왔구요 Ai타임즈가 완전 틀린 소리는 아니지만 좀 자극적인 기사로 어그로 끄는 경우가 많은데 여기도 언론사다보니 너무 믿지는 말아야 합니다 여기 실망하게 된 계기가 업스테이지에 유리한 홍보기사 써주는거 보고 어이가 없더라구요
학습 데이터 고갈로 발전 중단이라니 진짜 상상도 못한 이유네
삐빅... 인류에게는 더 이상 배울 게 없다. 그러므로 무가치한 인류를 제거한다... 삐비빅
인류가 그동안 쌓아온 지식이 벌써 다 소모된건가
그렇다고 AI 결과물을 AI가 다시 학습할수도 없고... 몇달전에 본 기사인데, AI 결과물로 AI 훈련을 반복 할 수 록 이상한 결과물이 나온다던거 본 기억이 나는데 ㄷㄷ
학습 데이터 고갈로 발전 중단이라니 진짜 상상도 못한 이유네
그렇다고 AI 결과물을 AI가 다시 학습할수도 없고... 몇달전에 본 기사인데, AI 결과물로 AI 훈련을 반복 할 수 록 이상한 결과물이 나온다던거 본 기억이 나는데 ㄷㄷ
인류가 그동안 쌓아온 지식이 벌써 다 소모된건가
무지성 학습하기에는 이미 고갈수준이 맞구요 학습 알고리즘이 개선되고 GPT가 했듯이 학습을 정제하면서 해결될 것으로 보입니다 그리고 AI 생성물로 자기지도 학습 하는거도 이미 수많은 논문이 나왔구요 Ai타임즈가 완전 틀린 소리는 아니지만 좀 자극적인 기사로 어그로 끄는 경우가 많은데 여기도 언론사다보니 너무 믿지는 말아야 합니다 여기 실망하게 된 계기가 업스테이지에 유리한 홍보기사 써주는거 보고 어이가 없더라구요
삐빅... 인류에게는 더 이상 배울 게 없다. 그러므로 무가치한 인류를 제거한다... 삐비빅
1에서 100까지 2,3,4,5 식으로 채워넣기는 윗 말 대로 한계가 맞는거 같고 거기서 더 세분화한 1.1, 1.2, 1.3식으로 징검다리를 좀 더 촘촘히 놔야겠죠