9to5Mac에서 본 하이통 인터내셔널 테크 리서치의 제프 푸의 새로운 분석 노트에 따르면, 애플은 온디바이스 인공 지능을 위한 A18 프로 칩의 변경을 계획하고 있습니다. 또한 푸는 애플이 평소보다 일찍 A18 Pro 칩 생산량을 늘리고 있다고 말합니다.
이 소식은 온디바이스와 클라우드 기반 솔루션의 균형을 맞추는 방법을 포함하여 올해 Apple의 AI 기능에 대한 계획에 대해 계속 알아가는 가운데 나온 것입니다.
iPhone 16 Pro의 새로운 AI 중심 칩
애플 칩 루머에 대한 신뢰할 만한 소식통인 푸는 투자자 노트에서 다음과 같이 말합니다:
공급망을 확인한 결과, Apple의 A18에 대한 수요가 증가하고 있는 반면, A17 Pro의 물량은 2월 이후 안정화되고 있습니다. 6-GPU 버전인 Apple의 A18 Pro는 (A17 Pro에 비해) 더 넓은 다이 면적을 특징으로 하며, 이는 에지 AI 컴퓨팅의 트렌드가 될 수 있습니다.
칩의 다이 면적이 커진다는 것은 일반적으로 더 많은 트랜지스터와 특수 부품을 수용할 수 있다는 것을 의미합니다. 반면에 다이 크기가 커지면 결함 및 설계 결함의 위험도 커집니다. 또한 에너지 효율과 열 발산에도 영향을 미칠 수 있습니다. 올해 말 아이폰 16 출시를 앞두고 A18 Pro 생산량을 늘리면서 Apple은 이러한 균형을 맞춰야 할 것입니다.
한편 엣지 AI 컴퓨팅은 클라우드가 아닌 디바이스에서 직접 처리되는 인공 지능을 말합니다. Apple은 올해 일부 기능은 클라우드 인프라(잠재적으로 Google과의 파트너십)에 의존하고 다른 기능은 완전히 기기에서 실행하는 분할 접근 방식을 취할 것으로 예상됩니다.
다음은 IBM의 엣지 AI에 대한 훌륭한 설명입니다:
간단히 말해, 엣지 AI 또는 "엣지상의 AI"는 엣지 컴퓨팅과 인공 지능을 결합하여 상호 연결된 엣지 디바이스에서 직접 머신 러닝 작업을 실행하는 것을 말합니다. 엣지 컴퓨팅을 사용하면 데이터를 디바이스 위치에 가깝게 저장할 수 있으며, AI 알고리즘을 통해 인터넷 연결 여부와 관계없이 네트워크 엣지에서 바로 데이터를 처리할 수 있습니다. 이를 통해 밀리초 내에 데이터를 처리하고 실시간 피드백을 제공할 수 있습니다.
애플이 인공지능에 초점을 맞춘 A18 칩의 변경을 계획하고 있다는 보도는 이번이 처음이 아닙니다. 지난달에 발표된 보고서에 따르면 A18은 더 강력한 뉴럴 엔진과 함께 "내장된 AI 컴퓨팅 코어의 수를 크게 늘릴 것"이라고 합니다.
아이폰 16과 아이폰 16 프로 모두 올해 A18 칩 버전이 탑재될 것이라는 소문이 돌고 있습니다. 현재 아이폰 15는 A16 칩을, 아이폰 15 프로는 A17 프로 칩을 사용하고 있습니다. 오늘 제프 푸의 보고서에 따르면 아이폰 16 프로와 아이폰 16 프로 맥스에 탑재될 A18 프로에만 AI에 초점을 맞춘 변경 사항이 적용될 것으로 보입니다.
이미 늦어서 그럼... 애플 앞뒤로 있는 마소 엔비디아 구글 아마존 메타 전부 AI로 쭉쭉 올랐는데 지금까지 가만히 있었으니...
애플이 소프트웨어, 하드웨어 느리더라도 안정화 확신이 있어야 시작하는데 AI 발전 속도가 몇달 지날수록 천지개벽 수준의 급발진이라서. 실무에서 본격적 적용하면 지금 발이라고 걸치기 안하면 뒤쳐지는걸 애플갬성으로 커버 불가함.
병먹금. 타임라인 보니까 그냥 어떤 주제든 다 긁고 다니는게 목적인 깡계인듯.
엥 갑자기 왠 삼성...
AI쪽에서 뒤쳐졌는지는 애플 소프트웨어 이벤트인 WWDC에서 확인되겠죠. 애플에서 내놓는 논문들 보면 내부에서 뭔가 하고 있는거같긴 한데, 컨슈머 프로덕트로 만들어서 내놓을 수 있느냐가 관건이죠
배터리 더 들어가야겠네
[삭제된 댓글의 댓글입니다.]
유리학사
이미 늦어서 그럼... 애플 앞뒤로 있는 마소 엔비디아 구글 아마존 메타 전부 AI로 쭉쭉 올랐는데 지금까지 가만히 있었으니...
유리학사
그래서 경쟁이 좋은거긴 합니다. 경쟁사들이 눈에 띄게 추격해오거나, 아니면 큰 흐름을 바꿔버릴만한 새로운 기조가 나타나면 주주들부터가 채찍질을 해대니까요. 특히 A칩은 사실 A16에서 차세대 GPU쓰려다가 엎어지고 A17에서야 사용되었다는 얘기가 나올 정도로 오히려 촉박하게 달려야 하는 부분이긴 합니다.
[삭제된 댓글의 댓글입니다.]
유리학사
애플이 소프트웨어, 하드웨어 느리더라도 안정화 확신이 있어야 시작하는데 AI 발전 속도가 몇달 지날수록 천지개벽 수준의 급발진이라서. 실무에서 본격적 적용하면 지금 발이라고 걸치기 안하면 뒤쳐지는걸 애플갬성으로 커버 불가함.
이젠 기술력도 삼성 꽁무뉘 쫒는격이네 ㅋ 이게 다 그 되도안하는 헤드셋의 결과물임
루리웹-5297855899
엥 갑자기 왠 삼성...
병먹금. 타임라인 보니까 그냥 어떤 주제든 다 긁고 다니는게 목적인 깡계인듯.
자기딴엔 나름 불똥 던져놨다 생각하고 싸움붙인뒤 뒤로빠져서 구경하는 그런부류인가보네요.
알바는 나가있어
면적이 더 넓어진다면 M4도 늘린다는건데 그게 더 기대되네
애플은 예전부터 Npu 도입해서 앞서가는줄 알았는데... 많이 뒤쳐졌나요?
아이폰16에서 도입하려는 AI기능들이 요구하는 성능이 예상보다 더 높아서 칩도 같이 수정한다는 내용입니다. 본문의 루머가 맞다면 프로시리즈에만 작동하는 AI기능이 있을수도 있겠네요.
누전으로메인보드가펑
AI쪽에서 뒤쳐졌는지는 애플 소프트웨어 이벤트인 WWDC에서 확인되겠죠. 애플에서 내놓는 논문들 보면 내부에서 뭔가 하고 있는거같긴 한데, 컨슈머 프로덕트로 만들어서 내놓을 수 있느냐가 관건이죠
마이크로소프트가 오픈AI를 앞세워서 기술력을 가다듬고, 구글이 추격 시작한것에 비해서 애플은 GPT 같은 제품을 아직 공개를 안 했음. 동영상이나 사진에서 문자 인식은 솔직히 잘 해 놓고, 사진 화질 올리는 곳에 NPU는 많이 활용 되는데, 챗GPT나 바드 같은 시지 제품이 없다 정도...? 솔직히 눈에 안 보일 뿐 방향성이 달라서 그렇지 애플이 AI 기술이 없다기엔 애플 제품에 눈에 안보이는 AI 기술은 솔직히 많이 들어있음.
NPU는 하드웨어일 뿐이고, 지금까지 보여준 관련 서비스들만 보면 본격적인 생성형 AI 분야에선 뒤쳐져있다고 볼 수 있죠. 윗분의 변호마냥 사진이나 동영상 문자인식, 번역 정도로 선두주자라고 하긴 어렵고요. 그건 파파고에서도 더 잘 되는 건데. 평가를 뒤집을 한 방이 필요한데, WWDC랑 아이폰 16을 보면 어느정도 윤곽이 드러나겠네요
시리도 못 만드는 주제에 ai는 개뿔. 내 목소리에만 반응 안 함. 티비에겐 졸라 친절.
시리 개발자들은 혀랑 귀에 문제가 있는 게 분명함.