실시간 동영상까지 인식하는 새로운 플래그십 모델 GPT-4o가 공개되었습니다.
GPT-4o (“o” for “omni”)는 텍스트, 오디오 및 이미지의 어떤 조합이든 입력으로 받아들이고 텍스트, 오디오 및 이미지의 어떤 조합이든 출력을 생성하여 훨씬 자연스러운 인간-컴퓨터 상호 작용을 위한 한 걸음입니다.
기존 모델에 비해 시각 및 음성 이해 부분에서 특히 우수합니다.
GPT-4o의 텍스트 및 이미지 기능은 오늘부터 ChatGPT에서 사용 가능합니다. GPT-4o를 무료 티어에서 제공하며, 플러스 사용자에게는 최대 5배 높은 메시지 한도를 제공합니다.
또한 ChatGPT 플러스에서 GPT-4o를 활용한 새로운 Voice Mode의 알파 버전을 다음 몇 주 안에 출시할 예정입니다.
https://www.youtube.com/live/DQacCB9tDaw
소개영상
실시간 보이는 풍경 설명
생일축하
즉석에서 무반주로 화음 맞춰 노래
잘 못 알고 계신게.. Gpt는 우선 생성형 ai라 우리가 아는 지식을 알려주는 개념이랑은 다릅니다 그래서 서울에 에펠탑니 있다고 알려주는게 정상이에오 특히 3.5 까지는 그랬었죠 근데 이제 4가 나오면서 ai가 기반으로 하는 데이터가 많이 늘어나다보니 우리가 알고 있는 최근의 정보들 기반으로 대답해주는거 뿐이에요
와... 놀랍네요.
호기심에 냅다 어플깔아서 질문 해 봤는데 얘들 원래 이렇게 구라가 패시브인가요?? (제미나이랑 챗gpt3.5갖고 놀아봤습니다) 이미 정답 알고있는거 테스트 삼아 물어보는데 (어디에 뭐 있니 이런거) 줄창 아는척만 하다가 꼬치꼬치 캐 물어야 그제서 정답 알려주네요.
원래 그냥 무료버전은 문장바꿔주는 용도로밖에 도움안되고 돈 내고 써야 원하는 수준될겁니다
유료쓰심 다른세상입니다
아 현질 해야 달라지는군여 실존 하지도 않는거 자꾸 지어내서 이야기하고 서울에 에펠탑 있다고 하질않나 이게 맞나 싶었습니다.
newzelda
잘 못 알고 계신게.. Gpt는 우선 생성형 ai라 우리가 아는 지식을 알려주는 개념이랑은 다릅니다 그래서 서울에 에펠탑니 있다고 알려주는게 정상이에오 특히 3.5 까지는 그랬었죠 근데 이제 4가 나오면서 ai가 기반으로 하는 데이터가 많이 늘어나다보니 우리가 알고 있는 최근의 정보들 기반으로 대답해주는거 뿐이에요
GPT-3.5와 4 모두 써보고 몇달째 유료결제하는 입장에서 말하자면, 완전히 차원이 다름.
그리고 gpt는 설정 들어가서 본인이 누구인지 어떤 형식의 대답을 듣고싶은지 커스터마이징 해주셔야 원하는대로 대답해줍니다.
3.5는 미끼구요 최신 모델들은 미리학습된 데이터로 대답하는게 한계가 있다보니 저런식으로 실시간 인풋 데이터를 받아서 현실과 밀접한 대답을 하려는 방향으로 발전중입니다
마우스+키보드 이후로 컴퓨터 인터페이스 혁명이라고 봐야할듯
이거때문에 AI버튜버 제작자 현타 왔던데