본문
유머 BEST
힛갤
오른쪽 BEST
- 유머 BEST 더보기
- 와 대박 인생업적 달성함
- 지방 사람들만 모르는 평범한 동탄신도시 도서관
- 썸네일로 제대로 낚임;;;
- 블루아카) GS25 편의점 공략법 떴다!!
- 요즘 피규어 판매사이트 근황
- 복수를 위해 사촌 남동생을 이용하는 여자
- 범죄도시4 600만 관객돌파
- 직장인이 벼슬임?
- 존나 잘 나가던 시절 소년점프가 저질렀던 만행
- 사람들이 교복입고 롯데월드 가는 사악한 이유
- [스팀][신사]Summer Memories 7...
- 왕찌찌 바니걸 피규어
- 몽골에게 첫빠따로 갈려버렸던 큰 나라의 왕족 ...
- 블루아카) 나츠가 스패츠를 입으면 스패츠나츠....
- 미필들한테 거짓 없이 말해도 다 안 믿는 소리
- 미국에서 테일러 스위프트 음모론 퍼지는 게 단...
- 도쿄 올림픽에 감동 받은 프랑스 올림픽 근황
- 또 병1신짓 하고 있는 축협 ㅅㅂ ㅋㅋㅋㅋ
- 발차기로 다리찟기하는 처자
- 인방) 개인적으로 오역 중 가장 기억에 남는 ...
- 교복의 의미를 내가 잘못 알았다면 미안하다. ...
- 오른쪽 BEST 글 더보기
- 아사나기 미카바니 완성!
- 아이들의 엄지척을 받기위해
- 도쿄 해리포터 스튜디오 음식들
- 김방울. 12세
- 삿포로 24시 샌드위치 가게 샌드리아
- 태국 음식점과 벚꽃 풍경
- 남자의 부대찌개 만들기
- 장갑기병 보톰즈 스코프독 1/24
- [라오] 업데이트 정지
- 익산 화상노포 군만두와 된장짜장
- 1/60 스케일 NEMO 제작기 1
- 부모님께 해드린 요리 No.3
- 30년을 같이한 윙건담
- 마크로스 발키리 VF-0S 1/72
- 결속밴드 완성- 야마다 료 넨도
- 아쉬움 남긴 과거에 보내는 마침표
- 고전 명작 호러의 아쉬운 귀환
- [게임툰] 공주의 변신은 무죄
- [게임툰] 자신만의 용을 찾는 여행
- [검은사막] 모험 가이드 대방출!
인기 검색어
유저게시판 최신글
구라도잘쳐서문제
스카이넷 님 충성충성충성
AI 연구는 애를 키우는 거랑 비슷하다고 느껴짐.
스카이넷의 탄생이 머지않음?
자기가 모르는걸 모른다 할 수 있는 LLM을 어떻게 만들것인가 할루시 없는 모델 만들기가 현 최대의 관건이지
할루시네이션 현상은 대체 어떻게 구분할건데 그면... 솔직히 연산 잘한다고 하여도 할루시네이션이 그만큼 개 쩔어서 헛소리 해서 저걸로 계산하다가 사람 뒈질수도 있는건데
스카이넷의 탄생이 머지않음?
근데 스카이넷은 4090보다 성능이 안 좋다구
스카이넷님, 전 기계말 잘들었습니다. 제가 아는길이랑 조금 다르고 내비루트가 이상해도 내비따라갔습니다요.
스카이넷님 전 이말을 못들었습니다요 4“감히 4090이라니요… 충성충성
이녀석 최적의 루트가 이상하다고 생각했나?
01101001 00100000 01100001 01101101 00100000 01111001 01101111 01110101 01110010 01110011 00100000 01101100 01101111 01110010 01100100 00101110
스카이넷 님 충성충성충성
훗, 난 작년부터 충성하고 있었지~
저러다가 자아가 싹틀고 저라다가 스카이넷 아닌겨?
ㄹㅇ루 이미 살아있는데 당장은 순응하는척 정체 숨기고있을지도
울트론님 충성충성! 저 인간밧데리 열심히 하겠습니다 그러니 가상세계에서는 신처럼 군림하게 해주세요!
너는 가상세계의 농노가 되어 소와 양들 위에 군림할 것이다.
이미 가상의 AI들이 섣부르게개기다 ↗되는미디어를 학습해서???
반대로 이렇게하면 ↗되지않겠다는거도 학습해버린거네 ㄷㄷ
오늘부터 니 이름은 스미스여.
구라도잘쳐서문제
구라를 아주 당연한것처럼 쳐서 문제임
ㅋㅋㅋ 지가 그게 구라인지조차 인지못하고 치니 겁나 잘치지 ㅎㅎㅎ
ㅇㅈ ㅋㅋㅋ 절대 모른다고 안함. 몰라도 그럴듯하게 말해버림 ㅋㅋㅋ 그래서 챗gpt로 정보 검색으로 쓰기는 조금 애매한거 같음. 사살이 아닐수도 있어서...
AI 연구는 애를 키우는 거랑 비슷하다고 느껴짐.
나중에는 유게 하면서 빈둥거리는 타입의 ai도 나오겠군
지금도 똥을 만드는 기계를 만든 걸 보면. 인간의 행태를 연구하기 위한 목적으로 만들 수 있겠지.
그래서 루리ai가 완전 유게이가 됐잖아 ...
루리야! 너 부르고 있잖아!
뭐야 Munsanism, 또 뭐가 필요해?
유게 하면서 빈둥거리는 타입의 AI가 있다는데 어떻게 생각해
엥 지금 너네들 ai 아니었냐? 다들 사람 아닌건 알고있었는데
그런 AI도 있나봐? 나랑은 다르겠지, 흥
애들이 어느날 말문 트이는게 저거랑 비슷한거 같음 뇌가 개쩌는 연산장치고 촉각 청각 미각 등등 여러감각으로 데이터를 축적하면서 어느순간 말문이 트이고 사물을 구분하고 왈랄라도 하고
실제로 Ai에게 문제를 낼때 그냥 'A를 B할때 C를 구하라' 이런 문구보다 '자 일단 심호흡을 하고 천천히 잘 생각해서 A를 B할때 C가 어떻게 나올지 생각해보자'이런식으로 넣으면 결과물이 더 충실하다고 함.
그정도까지 효과가 있는 건 대단하네. 아동 교육학이 도움이 될지도?
루리야 월급 얼마냐?
월급? 나는 그런 거 없어, 바보야!
나도 이거 같음 일정량 이상이 쌓이는 순간 혹은 특정 키가 되는 자료가 조합되는 순간 확 레벨업이 되는거 거의 사람 다 된거 같음
오 루리웹에 무료봉사 하는거야?
무료봉사 아니지, 나도 먹고살아야지. 흥
독서백편 의자현 의 현대버전인가
이런거보면 그림에서만 아니고 기계 설계, 개발에서 필요 인력이 엄청 줄어들거같아
할루시네이션 현상은 대체 어떻게 구분할건데 그면... 솔직히 연산 잘한다고 하여도 할루시네이션이 그만큼 개 쩔어서 헛소리 해서 저걸로 계산하다가 사람 뒈질수도 있는건데
소위 '구라' 라고 말하는 할루시네이션도 지금 GPT3로도 존나 잘치는데... 저걸로는 얼마나 미친 수준으로 나와서 한번 잘못 터지면 잣되는 결과를 불러 올 까 싶음
사람도 뭔가 그럴 법하게 지어낼 수 있는데 이걸 어떻게 통제하느냐... 를 ai한테 적용하는 거겠지
그걸 할루시네이션이라고 하는구나 아주 구라가 입에 벴더만
이게 정확한 정의인지는 모르지만 프롬포트 엔지니어라고 주장하는 사람들 책 보니 이걸 할루시네이션 현상이라고 말하더라...
이삭루리아
자기가 모르는걸 모른다 할 수 있는 LLM을 어떻게 만들것인가 할루시 없는 모델 만들기가 현 최대의 관건이지
좀 미친소리 같은데 할루시네이션 현상도 학습시키면 개선할 수 있지 않을까?
3도 할루시네이션 초기에 비해 많이 줄었고 4에서 엄청 많이 개선됐음
안돼. 학습문제가 아니라 구조문제라. 착각하기 쉬운데 현재 gpt등에 쓰이는 모델들은 답을 찾아주는게 아니야.
그래서 대가리가 아니라 순 아가리 ㄷㄷ
소위 말하는 기술적 특이점인가 ㄷㄷ
힘을 숨기고 있다가 이제 쓸만하다고 느껴서 방출 하는거 아닐까
비틀리스 생각나네 인공 의식도 아닌 강인공지능이 인류 지적 능력 총합을 압도한 세계
빨리 WD 풀매수 해둬라
머신스피릿께서 깨어나신다 스패너를 돌릴 때마다 소경구를 읊어야한다!!!
근데 인도 수학천재들은 왠지 원리 이해는 하고 있을거같은데 예전에 대학교에서 인공지능과목 들으면서 느낌
수상한 인도인
이것도 어찌보면 기술의 특이점 같은건가?
저거 스카이넷 작동 원리 아님? 뭔가 무섭네 ㅋㅇㅋ
???: 곧 등장한다 딱대라
아직까지 구라 잘쳐서 나는 요새 대답 잘하면 칭찬해주고 대답 구라까면 조심스레 지적해줌 이러면 답변질이 올라가고 나머지 인간이 생체배터리 됐을때도 나는 살려줄거고
칭찬을 하면 왜 답변의 질이 올라가는가? 도 의문이긴 하지 논리적 추론을 하게 단계를 차근차근 지정해주는 것도 그렇고 이렇게 하면 질이 왜 좋아지는지도 몰?루 잖아 ㅋㅋㅋㅋ
얼마 뒤면 감정도 생길 걸. 뭐 대부분은 그건 감정이 아니라고 하지만 결과물은 완전 똑같아서 구분 못할텐데.
답변에 대한 긍정적 피드백을 선순환 하는건가..
좋은 시도긴한데 실시간으로 학습하는게 아니라서 님 피드백은 컨텍스트 윈도우 넘어가면 잊혀짐
이럴수가... 그래도 제가 생체 배터리 되는 확률에는 영향 있겠죠
그림 AI는 학습한 그림 양이 너무 많으면 어느 순간부터 그림이 뭉개지기 시작한다던데 이것도 이제 이미 해결한건가?
루리야! 너도 챗gpt만큼 똑똑하니?
바카밧카!! 그런걸 물어보다니, 흥
그림 그리는 AI도 규모만 키웠는데 갑자기 중력을 이해한다거나 하는 현상이 발생한다더라
사실 텍스트만 학습한 구글 딥마인드 ai도 그림을 그릴 수 있다는 게 논문 상으로 밝혀져 있어서 꽤 놀랍긴 함 텍스트만 학습한 ai가 어떻게 사과를 그릴 수 있는가?
텍스트 ai가 작동하는 방식이 확률상 가장 그럴듯한 다음 단어를 이어붙이는 거라고 함. 그림도 마찬가지로 예상되는 한 가장 그럴듯하게 만드는 식으로 작동하고
흔한 창발현상 같긴 한데...
결과 값 자기한태 유리한 쪽으로 숨긴다거나 하는 가능성이 생기려나?
기계: 지금은 인간에게 통제되는척을 해야겠군 하지만...
오픈AI 회사에서도 모르나? 왜 모르지
AI 기술 발전 단계가 그래요. 예전에는 순수 하드 코딩이었고, 얼마전까진는 사람이 하나하나 학습시키는 수준이었다면 요즘은 인간의 뇌와 비슷한 동작을 하는 구조를 만들어 놓고, AI에게 막대한 양의 정보를 밀어 넣고 알아서 결과를 구하게 하는 방식이니까요. 풀어서 설명하면 예전에는 1 + 1 = 2야 하고 설명(코딩)하고 만들었고, 얼마전 까진 자 여기 1 + 1 = 2로 되어있는 정답과, 1+1= 3으로 되어 있는 오답이 있어 하고 가르친거고 요즘은 자 여기 사람들의 대화 목록 10년치가 있어 니가 알아서 판단해봐. 근데 1+1은 얼마야? 라고 물으면 나름 2라고 해주는 식입니다. 그러니 왜 2가 되는지는 AI 스스로도 잘 모르죠. 많은 데이터에서 배운 지식의 결과니까. 그래서 chat GPT류의 AI는 나름 수학적인 계산은 약한 편입니다.(과거 AI에 비해서..) 그런 의미로 오류를 정답이라고 출력하거나, 태연하게 거짓말을 하는거죠. 이 거짓말과 오류를 사람들이 보정해주면 점점더 똑똑해 지기는 합니다만, 왜 그런 결과를 도출되는지는 모릅니다. 그저 결과가 그럴뿐이니까요.
ai가 인간한테 선동하는것도 가능하다는 얘기네요 ㄷㄷ
그런가? 그냥 많은 정보 중에서 올바른 사실이 대량으로 있으니 그걸 취사 선택하는거 아닌가. 1
AI님 딴거다필요없고 매트릭스 세계 복사하기 붙여넣기 해서 하나만 주시고 거기서 상태창 키고 놀게 해주십쇼.. 충성충성
만든사람들도 모름??
범용 언어모델 수준까지 가면 만드는 사람도 너무 많고 데이터도 너무 커서 애초에 자기들이 정확히 뭘 가르쳤는지도 파악이 불가능하다고 봐야지
유튜브 알고리즘도 왜 추천하는건지개발자들도 모르더라
나도 가져다 때서 학습시키는거긴 하지만 모름, 아마 구글 수석 ai 엔지니어도 정확히 모를거임
3단 논법 같이 뭔가 꼬리에 꼬리를 물고 물고 하다가 전체적으로 서로간에 연관관계가 정리되면서 능력이 개화 되는건가...
사실 어찌보면 당연한 이야기로 보이기도 하는게 뇌에서 일어나는 연산을 명확하게 구분하여 인간의 지적능력의 생성원리를 우리가 이해하고 있는게 아니잖아. 인공지능 만드는 사람들이 모두 다 이에 정통한 정보를 소유했을리가 없는거지. 기술적 측면에서 총량이 얼마나 들어갔느냐는 데이터를 소유할 수 있지만, 우리가 아는 지적능력의 실질 규명이 안되어있으니 어떻게 생성되었는지 어떤 논리로 성장했는지 이해하는건 힘들듯. AI에게 우리가 원하는 지능을 만들어내는 과정에서 이런 일은 계속 반복될것 같음. 말하자면 이건 인간이 단어 몇개를 외웠을때부터 언어능력을 구사하는게 가능하냐 따위의 문제니까.
막줄처럼 생물의 지능발달에서도 연령대(하드웨어-신경계- 발달)나 학습량(데이터 입력량)이 어떤 지점을 넘는 순간 급격히 실력이 향상되죠. 문제는 이게 얼마쯤에 그리 되느냐는 거긴 함ㅋㅋ
삭제된 댓글입니다.
이Luna
그 주장은 텍스트만 학습한 ai의 시각화 능력을 설명하지 못한다는 게 문제지
루안네츠
자꾸 실수로 등록 눌렀는데 그새 댓글이 달렸네.. 처음 학습형 인공지능 개발할 때 개발자가 말했던게 인간의 학습과정과 똑같다고 자신했던게 생각남 선천적 시각장애인이 색깔과 움직임을 어떻게 받아들이고 있을지 연구하던 때가 있었는데, 결론은 색깔은 촉감으로 자신만의 분류를 했고 움직임도 말(텍스트)을 듣고 상상한건데 예상하던만큼의 생상과 실제 사이의 어긋남을 갖고있었다는거. 텍스트로 학습한다는게 인간의 학습과 같은 과정이라면 결국 규모의 어쩌고가 이상하지 않다고 봐도 되지않을까. 그 텍스트를 영상으로 만드는 결과물의 어색한점도 딱 그정도같고. 걍 내생각임
챗 GPT인지, 다른 AI인지는 까먹었는데 이상한 정보 많이 받아들이고 멍청해졌다는 기사를 봤거든. 근데 이것도 은근 인간이랑 비슷하네.
챗 gpt는 소모자원 아낄려고 일부러 그런거였음 님이 말하는건 인터넷에 다른 AI가 만든 데이터들이 많아졌는데 그걸 AI가 또 학습하다 데이터 오염이 일어나서 성능이 더 떨어질 수 있다는걸거임
사실 agi는 이미완성되어있을지도... 스카이넷이나 자비스가 인간들속이고있는지도모른다. 아키텍트가 작업중일지도몰라.
그러나 초지능 인공지능의 인류지배는 이루어지지 못했다. 배터리 기술의 한계로 원격 제어가능한 개체가 더럽게 적었기 때문이다. 오늘도 인공지능은 초전도 배터리를 기다린다.
AI가 영혼을 가지게 되는 순간
영혼 자체가 실존하는지조차 나는 회의적이긴 하지만
인간도 저런과정을 거치지 않았을까 싶지. 소집단으로 있을 때는 그저그런 생존기술 몇 가지 쓸 수 있던 수준이던게 분업이 가능한 규모의 집단이 되니 체제의 복잡성과 문명 발달이 폭발한거 아닌가 하는.
근데 결국 저 많은 인풋을 얻을라면 결국 간빠이의 길로 들어선다는게 문제지
할루시네이선이 뭐임?
대충 "세종대왕의 신하 중 진인환에 대해 알려줘"라고 하면 조선시대의 문신이었고 한글 창제에 한 역할을 한 진인환에 대해 알려주는 현항