banner
뉴스 센터
영업 및 생산에 대한 폭넓은 지식

Apple은 WWDC 기조연설에서 ML을 제품에 적용하여 "AI" 과대광고를 피했습니다.

Jun 13, 2023

arstechnica.com에서 AMP가 아닌 버전 보기

월요일 WWDC 2023 기조연설 행사에서 공개된 Apple Silicon Mac Pro 및 Apple Vision Pro와 같은 인상적인 신제품 속에서 Apple 발표자들은 "AI"라는 용어를 한 번도 언급하지 않았습니다. 현재 생성 AI. 그럼에도 불구하고 AI는 다른 이름으로만 애플 프레젠테이션의 일부였습니다.

오늘날 "AI"는 놀라운 발전과 극도의 과대 광고로 인해 매우 모호한 용어이지만, Apple은 그러한 연관성을 피하고 대신 "머신 러닝" 및 "ML"과 같은 용어에 집중했습니다. 예를 들어, iOS 17 데모에서 소프트웨어 엔지니어링 SVP Craig Federighi는 자동 수정 및 받아쓰기의 개선 사항에 대해 이야기했습니다.

자동 수정은 온디바이스 머신 러닝을 기반으로 하며 수년에 걸쳐 이러한 모델을 계속해서 발전시켜 왔습니다. 이제 키보드는 단어 예측을 위한 최첨단 기술인 변환기 언어 모델을 활용하여 자동 수정을 그 어느 때보다 더 정확하게 만듭니다. 그리고 Apple Silicon의 강력한 성능 덕분에 iPhone은 키를 누를 때마다 이 모델을 실행할 수 있습니다.

특히 애플은 애플 기조연설에서 AI 용어 '트랜스포머'를 언급했다. 이 회사는 구체적으로 "변환기 언어 모델"에 대해 이야기했습니다. 이는 자사의 AI 모델이 DALL-E 이미지 생성기 및 ChatGPT 챗봇과 같은 최근의 많은 생성 AI 혁신을 지원하는 변환기 아키텍처를 사용한다는 것을 의미합니다.

변환기 모델(2017년에 처음 소개된 개념)은 self-attention 메커니즘을 사용하는 자연어 처리(NLP)에 사용되는 신경망 아키텍처의 한 유형으로, 시퀀스에서 다른 단어나 요소의 우선 순위를 지정할 수 있습니다. 입력을 병렬로 처리하는 기능은 효율성을 크게 향상시키고 번역, 요약, 질문 답변과 같은 NLP 작업에서 획기적인 발전을 가져왔습니다.

분명히 iOS 17의 Apple의 새로운 변환기 모델은 스페이스바를 누를 때 단어 또는 전체 문장을 끝낼 수 있는 문장 수준 자동 수정을 허용합니다. 또한 귀하의 글쓰기 스타일을 학습하여 제안 사항을 안내합니다.

이 모든 온디바이스 AI 처리는 기계 학습 애플리케이션을 가속화하도록 설계된 Neural Engine이라고 불리는 Apple Silicon 칩(및 2017년 A11부터 시작하는 이전 Apple 칩)의 특별한 부분 덕분에 Apple에게는 상당히 쉽습니다. Apple은 또한 받아쓰기가 "Neural Engine을 활용하여 받아쓰기를 더욱 정확하게 만드는 새로운 변환기 기반 음성 인식 모델을 얻습니다"라고 말했습니다.

기조 연설에서 Apple은 "머신 러닝"에 대해서도 여러 번 언급했습니다. 새로운 iPad 잠금 화면 기능을 설명하는 동안("라이브 포토를 선택하면 고급 머신 러닝 모델을 사용하여 추가 프레임을 합성합니다"); iPadOS PDF 기능("새로운 기계 학습 모델 덕분에 iPadOS는 PDF의 필드를 식별할 수 있으므로 자동 완성을 사용하여 연락처의 이름, 주소, 이메일과 같은 정보로 빠르게 채울 수 있습니다."); AirPods Adaptive Audio 기능("개인화된 볼륨을 통해 우리는 기계 학습을 사용하여 시간 경과에 따른 사용자의 청취 선호도를 이해합니다") Smart Stack이라는 Apple Watch 위젯 기능("Smart Stack은 기계 학습을 사용하여 필요할 때 바로 관련 정보를 표시합니다")이 있습니다.

Apple은 또한 iPhone에서 잠기고 암호화된 개인 텍스트 및 이미지 저널링(대화형 일기와 유사)을 가능하게 하는 Journal이라는 새로운 앱을 선보였습니다. 애플은 AI가 한 몫을 한다고 밝혔지만 'AI'라는 용어는 사용하지 않았다.

Apple은 “기기 내 머신러닝을 사용하여 iPhone은 글쓰기에 영감을 줄 수 있는 순간에 대한 개인화된 제안을 생성할 수 있습니다.”라고 말했습니다. "제안은 사진, 위치, 음악, 운동 등과 같은 iPhone의 정보를 바탕으로 지능적으로 선별됩니다. 그리고 제안을 활성화할 때 포함할 항목과 저널에 저장할 항목을 제어할 수 있습니다."

마지막으로, 새로운 Apple Vision Pro 시연에서 회사는 고글 전면에 있는 사용자 눈의 움직이는 이미지가 얼굴을 스캔하여 생성된 특별한 3D 아바타에서 나온다는 사실을 밝혔습니다. 여러분도 짐작하셨겠지만, 바로 머신 러닝입니다.