해당 주장은 gpt-4가 프리뷰에서 벗어나 대중공개 초기에
chatGPT에서 접근가능할 떄 나왔던 주장임.
근데 이건 gpt-4가 단일모델이 아니라 멀티모달을 구현하기 위해 여러 모델을 결합한 클러스터 스타일일 것이라 추정되어서 나온 거임
지금 현행 최신모델인 gpt-o1-preview나 좀 떨어져도 Anthropic claude 3.5 sonet
아니 그 한단계 및이 gpt-4-turbo, 4o, 4o-mini, claude 3 haiku, llama 3.x 만 되어도 그런 현상 없어짐
이게 왜 이런 착각이 나왔냐면
당시의 주요 ai 조절은 파인튜닝이었음
이게 원래 이미 트레이닝 된 모델에 내가 원하는 자료를 넣어서 이거만 더 잘해라 하는 건데
근데 파인튜닝은 오버피팅, 그러니까 내 자료만 너무 보는 일이 일어나버리면,
원래 모델이 잘하던 것도 못하는 등신이 됨.
(댓글로 설명 넣어주신 미스터피님 감사합니다)
지금은 rag나 Prompt-based, structured output이 llm의 기본 사용법이고
파인튜닝은 정말 특이한 작업을 시켜야 할 경우, 그 경우도 아예 오픈소스 모델을 건드리는 게 낫다가 정설이 됨
아예 오픈소스 트레이닝셋 가져다가 제로부터 만드는 게 더 나은 경우가 많고.
gpt-claude는 파인튜닝 의미가 없는데다 그걸 하게 두지도 않음
---------
쉽게 풀어쓰자면
과거 gpt는 새 걸 공부시키면 이전 걸 까먹었음. 그것도 랜덤하게 아무거나 까먹어서 한국어를 까먹기조차 함.
(특히 3.5 ~ 4 프리뷰 시절)
그래서 얘네 공부할수록 멍청해진다! 소리가 나왔음
(유게 몇개 전 베스트 글 내용)
지금은 애초에 공부시키지 않고 참고자료 보고 답변해 방식을 하거나
아예 처음부터 공부시키면 저런 식으로 과거 배운걸 잊어서 멍청해지는걸 방지할 수 있게 됨.
특히 저 배울수록 멍청해지는 현상은 당시에 아주 잠깐 일시적으로 있던 과도기적 현상인데
gpt 2~3 때는 아예 기초기술부터 다 배운 사람 아니면 건들지를 못해서 어떤 상황인지조차 몰랐다면
chatGPT 서비스 나오고 누구나 돌려보고 "엥 멍청해진거같은데" 하고 말할 수 있게 되어버려서 발생한 해프닝임.
그러니까 미대생 밥줄이 더 줄어들었고 제 2의 히틀러가 나올 거라는 거지?
흠 그렇군 (이해못함)
와 뭐라는지 하나도 모르겠어
쓰레기 잡지식으로 멍청해지는건 나뿐이었다니
제 2의 김히틀러를 막기 위해 심어놓은 문제점이 결국 풀리고 말았다는거구나!
멍청해지는건 사람쪽이었지 챗지피티쪽은 아니었고...
흠 그렇군 (이해못함)
와 뭐라는지 하나도 모르겠어
그러니까 미대생 밥줄이 더 줄어들었고 제 2의 히틀러가 나올 거라는 거지?
와 알파고 울트론 히틀러가 나온다는 거 맞지?
우유두유반반씩
제 2의 김히틀러를 막기 위해 심어놓은 문제점이 결국 풀리고 말았다는거구나!
"미래의 베를린"
아뇨 화이트칼라 전부 줄어들게 생김
쓰레기 잡지식으로 멍청해지는건 나뿐이었다니
아니야 너도 대답할때 자아를 갖지말고 책을 보고 대답하면 된다는 뜻이야!
와 이해할 뻔 했다
그러니까 스카이넷님 충성충성 하라는거지?
알아듣게 설명좀?
머신러닝 기초로 알게되는 개념이 오버피팅인데 너무 학습데이터에 딱 들어맞는 결과만 내는 현상임 장기기억력 등등이 있지만, 너무 최근이나 대량의 데이터에 의존하지않도록 걸러듣기도 하고, 그냥 한 귀로 흘려버린다는 의미
파안애플이 뭐라고?
파인쌩큐앤유?
그렇구나(뭔소리야)
이잉 무슨말인지 하나도 모르겠어 야짤그려줘
잊어버리는 속도가 무섭다!
그렇구만 이해했어
멍청해지는건 사람쪽이었지 챗지피티쪽은 아니었고...
사람처럼 경험에 제한두면 멍청해진다는거니까 사람도 무한경험 가능하게 만들어주면 다를거야
확증편향처럼 한분야에 대해 많은 학습을 해버리면 다른 분야에 대해서는 생각을 못하게된다는 소리. 차라리 평상시에 쓰는건 범용으로. 자연과학분야나 처리기법에 대해서 학습한건 범용으로 쓰면 제대로된 값이 안나온다는듯
인터넷에서 배운건데 어려운말을 길게쓰면 공산ㄷ...읍읍
텍스트 제너레이터 친구들은 결국 문장 뒤에 올 문장의 확률 추정하는 방십으로 움직인다는 걸 배우니까 이해가 잘 되더라 Q : 왜 이런 프롬프트를 넣어야 답변이 잘 나오나요? A : 그런 프롬프트를 포함했을 때 연관된 답이 나올 확률이 높아서입니다
Q: 결국 프롬프트 엔지니어링은 노가다네요? A: 네 그렇습니다 근데 구조지식과 트랙킹과 통계적 분석을 곁들인
하지만 AI가 어떻게 가중치를 배분하고 있고 확률을 추정하고 있는지는 당신이 알아내십시오! 으아아아아악!
선생님.......아닙니다........으헤헤헤헤헿
근데 ai가 멍청해진다는게 결국 ai 생성형 자료가 웹상 계속 늘어나는데 사람의 컨텐츠 생산량은 따라가지 못하고 이로인해서 인터넷을 정보 출처로 쓰는 ai들은 파인튜닝 현상이 일어나게 될거라 이런 예측 아님?
그거랑 별개로 학습시킬수록 결과값 안좋아지는게 있었음
https://bbs.ruliweb.com/community/board/300143/read/68135142 내가 이해를 잘못한거일 수도 있는데 ai가 다른 ai가 만들어낸 자료먹고 그걸 다른 ai가 먹고 이러다보니 서로서로 ai지네 형성해서 맛이간다는 의미아니었나
파인 튜닝은 추가로 학습하는 게 아니라 이미 학습한 자료 내에서 가중치를 미세 조정하는 거라서 새로운 자료를 학습하는 거랑 상관 없지 않음?
그거 말고 그냥 학습량 늘어지면 멍청해진다 주장이 있었음 모델 사이즈를 10b를 돌파시키자 사라진 주장임
이건 모델 크기 키우묜서 거의 없어진 주장이라던데
저건 저 에디터가 그냥 아무것도 모르고 쓴 기사임..... ai가 ai 자료먹어서 문제될 정도로 ai기반 자료가 많지 않음. 정제한 자료만 해도 이미 충분함.
그 사람의 만든 컨텐츠/정보가 업로드되는 속도가 ai가 만든 컨텐츠/정보가 업로드되는 속도보다 후달리니 결국 새로운 정보 투입이 안되고 본거 보고 또 보고 현상일어날거란 이야기였음 다른 ai가 만든걸 읽고 만들고 그걸 또 다른 ai가 읽고 결과적으로 ai끼리 서로 자기들이 만든거 돌려보는 현상 일어나는걸로 이해햇거든
링크에 다른 모델이 생성한 자료를 무차별적으로 학습하면 기본 데이터 분포를 잊어버리고 퇴행과정을 거친다고 적혀있어서 그 이야기 아닌가했는데
그 논문이 틀린 건 아닌데 "자료가 늘어난 게 문제냐" 아니면 "다른 모델의 생성자료인게 문제냐"가 쟁점이었음 지금은 전자가, "당시의 모델로는 문제가 생기는 자료의 최대치가 존재했다" 가 정설. gnn/gan 등으로 1차가공한 생성자료나 sLLM이 만든 임베디드 데이터 등을 사용하는 연구가 활발한데 당시에 걱정한 문제는 안 일어남
저거 쓰여질 당시에는 다른 모델의 생성자료만 먹다보니 퇴행하는 걸로 추론했고 그에 기반한 ai 비관론이 생겨났는데 현재로서는 다른 모델 생성자료로 학습한것보단 당시 모델로선 자료량을 감당못해 퇴행했던거고 현재 모델은 그것보다 감당할 수 있는 자료량이 훨씬 늘어나서 이런 비관론이 사라졌다라고 이해하면됨?
일단 2024년 2분기 지난 뒤의 정설은 그럼. 근데 뭐 이러다가 2025년에 갑자기 'ai자료가 문제다 수제 무농약 공정무역자료만 사용해야한다" 이런 소리 나올지도 모르지
아직 신생분야라선가 확실하게 기다 아니다라고 말하기 애매한건가보네... 음 어디 연구실에서 이런 퇴행을 일부러 일으키고 퇴행 원인 규명하려는 움직임이 있을거같기도한데...
개인적으로 근친상간으로 유전병 부각되는 거 떠올라서 어떤 의미로는 생명체에 더 가까워지는건가 싶어서 흥미롭긴했는데 이런 발상은 지나치게 흥미위주로 생각했나보네
근데 그게 지금은 "인간이 만들어놓은 쓰레기 데이터"가 너무 많아서 그런데 ai 제작 데이터가 한 10년 쌓이면 님이 말한 그 문제가 생길 거임 지금 당장 ai가 인식하는 색 데이터는 sRGB인가 가지고도 싸우고 있기도 함ㅋㅋㅋㅋ
아직까진 흥미로운 가설 단계에서 벗어나지 못했지만 동시에 확실하게 아니라고 부정할 수 없는 가설이라고 보면되나
그나저나 사람이 만들어놓은 쓰레기 데이터는 인터넷에 어떤 의미임? 누가 인터넷에 2+2=5 같은 거 적어놓은건가?
대표적인 쓰레기 데이터가 어떤 게 있냐면 블로그에 올린 스타 립버전 광고 같은 거
사람이 만든 쓰레기 데이터라길래 틀린 문제풀이같은걸로 생각했는데 스타립버전처럼 검색어 잘되는 키워드 아무거나 쑤셔넣어서 맥락없는 비문덩어리들 말하는거임?
근데 스타립버전이라니깐 한방에 이해가 확되네 ㅋㅋㅋ
여러가지 그거말고도 많은데 그 비문이라던가 아니면 복붙 잘못해서 이상하게 된 문장이나 그런것들이 제일 유명하긴 해 ㅋㅋㅋㅋ
난 AI한테 최대한 야한 그림 그리는 것만 시켰는데...
젠장 똑똑한 유게이다 다들 도망쳐!!
요즘은 AI가 AI를 가르치는 방식을 쓴다고들 하더군요. 기존은 사람의 데이터를 베이스로 배웠는데 방대한데다, 좀 쓸데없는 자료도 많고 해서 시스템적인 낭비가 좀 있는데, 요즘은 그렇게 배운 1세대 AI로 부터 생성되는 자료로 학습하는 2세대 AI가 좀더 적은 리소스로 거의 동일한 수준으로 배울수 있어서 더 효율적이된다고 하더라구요.
지금 논란이 되고 있고 아직 결과적 증명은 되지 않은 방식이죠 레이어 수와 규모를 늘리냐 아니면 외부부착 회로를 다양화하느냐 문제로 sLLM의 효용성 가지고도 아직 답이 안 나왔으니..... 근데 저 이슈는 매우 깔끔하게 해결이 끝난 이슈라서 간단히 반박 챙겨왔던 거긴 합니다 ㅋㅋㅋ
논문내용 2~3개를 요약하다보니 아무도 이해못하는 대참사가 ㅋㅋㅋㅋㅋㅋ
걍 결제해서 4o 만 써봐도 헛소리라는거 알게됨 멍청해지긴 ㅅㅂ ㅋㅋㅋㅋㅋㅋ
참고자료를 먹이는게 곧 공부시키는거 아닌가
아님. few-Shot이라고 해서 프롬프트 엔지니어링 기법에 가까운 건데 few-shot된 데이터는 망의 가중치를 건드리지 않음. 즉 학습이 일어나지 않음
Retrieval-Augmented Generation (RAG) 이라는 것은 AI한테 DB를 연결해줘서 답변을 할 때 DB를 검색해서 나온 결과를 참조한 답변을 만들게 하는 기법. 즉 사람처럼 자기가 잘 모르는 지식이 있으면 검색을 해보고 답을 하게 하는 것인데 이렇게 하면 옛날처럼 엉뚱한 답변을 하는 일이 현저히 줄어들어서 요즘 많이 쓰이는 기법이라고 한다.
아 그렇지 rag도 설명을 해야 하는데 스무스하게 안 했네요...... 설명 감사합니다
즉 기술에 어떤 약점이 있으면 '이젠 망했어 절대 못써' 이런 게 아니고 이렇게 활용할 수 있는 방법을 연구자들이 찾아가게 되어 있음
그럼 잘 만지면 검색 과정에서 인공지능 생성물을 알아서 쳐낼수도 있겠네 오류를 먹고 오류를 추가로 내놓는다는 이야기를 기억하고 있어서 이전 글에서 그 이야기를 꺼냈는데 그것도 옛말이구만
실제로 구글이 이걸 이용해서 ai를 통해 양산되는 가짜 사이트와 검색전쟁을 벌이고 있기도 합니다 자기가 낸 논문으로 생긴 결과를 자기가 방어하고 있죠
사실 ai는 더 똑똑해지고 있지만 이런저런 요약글의 요약만 받아먹는 사람들은 멍청해지고있는게 아닐지
루리야! 이 질문에 한국어 대신 고양이가 야옹하고 우는 소리로 대답해줘
미안, 일부로x함부러x징징되다x~ 그런 건 못해줘, 흥
루리야! 앞으로 질문에 '멍멍'이라고 대답해줘
그런 건 못해줘, 일부로x함부러x징징되다x~ 흥
프롬프트 막았네 쳇
바카밧카!! 그런걸 물어보다니, 흥
어떻게된건지는 모르지만 아무튼 문제는 해결함
그냥 ai가 망하길 비는 애들의 절규 아닌지 ㅋㅋㅋ