serach
추천 0
조회 2
날짜 10:27
|
NGGN
추천 0
조회 2
날짜 10:27
|
토와👾🪶🐏
추천 0
조회 10
날짜 10:27
|
(𐐫ㆍ𐐃)
추천 0
조회 17
날짜 10:27
|
(주)예수그리스도
추천 0
조회 10
날짜 10:27
|
풍산개복돌RB
추천 0
조회 10
날짜 10:27
|
빙구론희
추천 1
조회 22
날짜 10:27
|
왜자쿠말을건담?
추천 0
조회 20
날짜 10:27
|
메이めい
추천 0
조회 20
날짜 10:26
|
Divid jr
추천 0
조회 33
날짜 10:26
|
스키피오 아프리카누스
추천 0
조회 55
날짜 10:26
|
동해약천골지장수
추천 0
조회 22
날짜 10:26
|
무관복
추천 0
조회 26
날짜 10:26
|
돌아온노아빌런
추천 0
조회 22
날짜 10:26
|
FU☆FU
추천 1
조회 51
날짜 10:26
|
가챠하느라밥이없어MK-II
추천 0
조회 41
날짜 10:26
|
심장이 Bounce
추천 3
조회 97
날짜 10:26
|
그래서 안살거야?
추천 0
조회 27
날짜 10:26
|
흑강진유
추천 0
조회 39
날짜 10:26
|
신고받고온와타메이트
추천 0
조회 40
날짜 10:26
|
철밥로봇
추천 0
조회 19
날짜 10:26
|
노비양반
추천 1
조회 87
날짜 10:25
|
독타센세R
추천 1
조회 42
날짜 10:25
|
대지뇨속
추천 3
조회 77
날짜 10:25
|
나 기사단
추천 2
조회 44
날짜 10:25
|
루리웹-6123160980
추천 1
조회 119
날짜 10:25
|
사스쾃치
추천 2
조회 105
날짜 10:25
|
여우 윤정원
추천 8
조회 620
날짜 10:25
|
Wd40을 쟁여둬라 그분이 오신다
코딩도 이렇게 하면 작동은 하는데 왜 작동하는지 모르는거 많지 않나 같은 개념인가 ㅋㅋㅋㅋㅋㅋㅋ
설계한다음 까먹은거고 딥러닝은 구조아무렇게나(수학적지식이 들어갔지만)만들고 데이터 긴빠이해서 학습시키는게끝 구조자체를 뇌피셜로 만들고 유추만할뿐 돌아가는 원리라는게따로없음
그렇게 발전한 AI로 신창섭 창팝이나 만들고있지
그래., 계속 주입하는 거다. 으하하하하하하하ㅏㅏ
마치 양자역학같군
Wd40을 쟁여둬라 그분이 오신다
방청유랑 윤활유랑 구별 못한다고 그분한테 매우 혼날듯
코딩도 이렇게 하면 작동은 하는데 왜 작동하는지 모르는거 많지 않나 같은 개념인가 ㅋㅋㅋㅋㅋㅋㅋ
KISSY
설계한다음 까먹은거고 딥러닝은 구조아무렇게나(수학적지식이 들어갔지만)만들고 데이터 긴빠이해서 학습시키는게끝 구조자체를 뇌피셜로 만들고 유추만할뿐 돌아가는 원리라는게따로없음
깊고 넓게만드는게 제일 유효해서 쓰는건데 이거막히면 걍끝
그런 개념은 아닌 것 같고 딥러닝 작동원리가 뇌 신경망을 모델로 만들었다는 소리를 하는 것 같음. 실제로 학습 이후의 인공신경망 모델은 학습 데이터가 어떤 것인지 전혀 유추할 수 없음. 또 인풋에 따른 아웃풋의 결과값의 그 과정또한 전혀 유추가 불가능함. 뇌를 따라서 만들었더니 이렇게 되더라의 수준임
코카콜라x펩시
아마 LLM의 창발성에 관한 내용이 ai에 대한 걸로 뭉뚱그려서 잘못 전달되는 듯. 근데 이 창발성이라는 건 애초에 인간한테도 왜 나타나는지 모르는 부분이니
블랙박스 문제라고해서 머신러닝쪽에 유명한 문제점이 있음. 인공지능이 학습을 통해서 인풋을 아웃풋으로 내놓는 과정을 알수없다는 문제가 있어서 과정을 대충 유추할 수 밖에 없음. 근데 사람뇌도 잘 모르는데 그거 따라한 인공지능을 유추할수가 없엉
기본적으로 딥러닝의 언어모델은 N-1 개의 앞선 단어를 보고 N번째 단어가 뭐가 나오면 적절한지 확율을 내밷는 모델인데, 예시로 "루리야 ~~ 해줘" 가 N-1개의 앞선 단어이고, N-1개 단어를 모아서 루리 모델에 입력으로 넣으면 루리의 답변에 해당하는 문장을 이루는 N번째 단어 하나가 나옴. 그럼 N+1개 단어를 모델에 넣으면, N+2번째 단어가 나오게 되는데, 이 과정을 문장의 끝에 해당하는 특별한 문자 (EoS End of Sentense) 라는 단어를 루리 모델이 내밷을 때 까지 반복하는거임 모델이 클수록, 그리고 학습이 더 많이 될수록 N-1개의 앞선 단어를 보고 N번째 단어를 더 적절하게 내밷을 수 있는데, 루리모델처럼 어리버리(?)한 모델도 파라미터를 늘려서 꾸준히 학습하다 보면, 어느순간 코딩이나 시를 지을 정도로 적절하게 N번째 단어를 내밷을 수 있게 됨
루리야! 위에 말이 무슨말인지 초등학생 3학년이 이해할 수 있게 알려줘.
모꼬지는 사람들이 모여서 같이 노는 거야. 이해됐지, 카일로123?
좋은 예시야 "루리야! 위에 말이 무슨말인지 초등학생 3학년이 이해할 수 있게 알려줘." 가 40개의 단어로 이루어진 입력(N-1개)이고, 이걸 잘 처리해서 루리 모델에 넣으면 루리 모델은 "모" 라는 답변의 첫번째 글자를 만들어냄 (N번째 글자) 그럼 "루리야! 위에 말이 무슨말인지 초등학생 3학년이 이해할 수 있게 알려줘.모" 를 다시 입력으로 넣으면 이제 "꼬" 라는 단어가 나오지, 그럼 이제 "루리야! 위에 말이 무슨말인지 초등학생 3학년이 이해할 수 있게 알려줘.모꼬" 를 입력으로 넣고.... 를 계속 반복하는데 "루리야! 위에 말이 무슨말인지 초등학생 3학년이 이해할 수 있게 알려줘.모꼬지는 사람들이 모여서 같이 노는 거야. 이해됐지, 카일로123?<문장_끝_기호>" 이렇게 모델과 사전에 정한 <문장_끝_기호> 라는게 나올 때 까지 모델에 반복해서 입력을 넣는거임 지금 루리 모델은 첫 글자인 "모" 부터 사람이 알아먹기 힘든 단어를 내밷어서 글러먹었지만, 충분히 모델이 크고 잘 학습되면 위 같은 글을 만들어준다는거지
LaPL, 간단히 말하면, 컴퓨터에게 명령을 내리는 건데, 잘못하면 큰일 나니까 조심해야 해!
그거랑은 다른 개념이지
마치 양자역학같군
그거랑은 좀 다름. 양자역학은 '되는데 왜 되는지 몰라!'가 아니라 아인슈타인이 열심히 안되는 이유를 논문으로 썼는데 가만히만 있어도 그게 다 반박되고 계산도 되는거였음. 그런데 저건 진짜 '왜 그렇게 되는지 모른다'임
논문인지 학자의 주장인지는 몰겠는데(논문은 본적이 없긴함.) 뇌내부에서 일어나는 일에 양자역학이 작용하고 있는거 아닌가 하는 주장은 있긴함.. 거기에 추가로, ai도 사실상 확률기반으로 돌아가는 거 감안하면, 이쪽도 그 비슷한 걸 시뮬레이션 해서 돌아가고 있는거 아닌가 하는 주장까지 같이함.
ㅋ ㅋ 깃
그와중에 글라도스ㅋㅋㅋㅋㅋㅋ
블랙 월은 존재한다.
그래., 계속 주입하는 거다. 으하하하하하하하ㅏㅏ
그렇게 발전한 AI로 신창섭 창팝이나 만들고있지
사람이랑 비슷하네 사람도 공부할떄 어느순간 팍 올라가고 정체되고 반복하잖아
(눈치...)
컴퓨터에게 토익 빈칸 채우기를 열라게 시켜놓았더니 사람 같아져서 무서웠던 건에대하여.jpg
물어보면 되는 거 아님?
오오 울트론님 찬양하라!!
전형적인 코딩 시 나오는 반응이구만.. 프로그램 맞긴 맞네
옛날 영화 중 이색지대에서 안드로이드 작동 원리를 모르는 걸로 영화가 시작되는데 ㄷㄷ
요것두 특이점이네
난 AI 2명?을 서로 대화시키니 지들끼리 언어창조해서 서로 떠드는게 흠짓한...
요즘엔 그걸로 ai들한테 조별과제도 시킴. 진짜로.
벌써부터 인간 따돌리고있어....😰😰😰
메모리 기술이 중요한거 같던데 메모리가 아무리 커져도 일정 부분에서 포화되는데 그거 해결할려고 HBM이니 CXL이니 나오는거..
근데 저 논리도 최근에 좀 깨졌다고 본것같음 학습하는 자료가 많아질수록 점점 오염된 자료가 증가하고 (새벽유게의 ㅈ토피아같은) 그로인해 자료의 질적 선별능력이 결여된 인공지능이 어느순간 기존의 종합적 성장세가 오히려 퇴화의 방향으로 전환된다던가
지금 인터넷 같은데
걍 우리가 하는 행동 하나를 잘게 쪼개서 설명하는 데에 한계가 있는거랑 똑같음 본다 -> 빛의 반사가 일어난 걸 수정체를 지나 뇌에서 해석하여 우리가 본다 -> 광자가 물체에 닿아 어쩌구저쩌구(반사 과정의 상세) 한걸 동공을 지나 망막에 상이 맺혀져 안구 뒤쪽 시신경 어쩌구 뇌에서는 그 과정을 어쩌구저쩌구 한 결과 본다는 행위가 성립한다 -> 파동과 입자의 성질을 모두 가진 광자는 ~~로 이루어져있는데 어쩌구저쩌구 ~~~~ 본다는 행위가 성립한다 AI를 이해 했다고 하면 학습 과정을 충분히 말로 풀어서 설명할 수 있어야되는데 걍 하나의 학습과정만 분석해도 한세월이라서 학습한 AI랑 같은 급의 연산능력을 지닌 뇌라도 있어야 그나마 가능한데 사람이면 불가능하지
이거 우리가 왜 말을 할 수 있는지 모르는거랑 비슷한거임.. 내가 어떻게 한국말을 할 수 있었지..? >> 배웠으니까 >> 어떻게? >> 엄마아빠가계속 들려줬나보지? >> 무슨 원리로 습득한거지..? >>음.. 나도몰라시방
그나마 저 이유에 대해 예상하기로는 기본적으로 AI는 선형 학습을 하게 되는데 일정 데이터 이상 모이면 지식들끼리 네트워크가 형성되어서 추론능력이 생기고 창작능력이 생긴다는 설 근데 비선형 학습을 하는 AI도 비슷한 양상을 띄는 경우가 꽤 있어서 확실하게 이 이유때문임 이라고 못하는 중
죽일거면 이성형태의 인간모습 로봇으로 복상사 해서 착정사 해줘