‘iOS11’이 보여줄 아이폰의 3가지 중요한 변화
  • 김회권 기자 (khg@sisajournal.com)
  • 승인 2017.06.27 17:11
이 기사를 공유합니다

사진 용량의 압축, 러닝 머신 엔진, ARkit로 대표되는 iOS11

 

애플이 6월5일~9일에 개최한 세계개발자회의(WWDC 2017)에서는 아이폰과 아이패드용 최신 소프트웨어인 iOS11이 공개됐다. 정식 출시를 앞두고 현재 베타테스트 중인데 지금은 개발자뿐 아니라 일반 사용자도 프리뷰 버전을 설치해 볼 수 있다. (물론 오류가 있을 수도 있으니 자제하길 권한다) 이번에 선보인 iOS11에는 새로 탑재되는 기능이 많다. 그 중 중요한 변화 3가지만 살펴보자.

 

 

같은 용량의 아이폰, 2배 많은 사진을 저장 한다

 

스마트폰이지만 전 세계에서 가장 활성화된 디지털 카메라, 그게 아이폰이다. 애플의 자료에 따르면 1년에 아이폰으로 촬영되는 사진은 약 1조장에 달한다. 그리고 이 1조장의 사진은 트위터나 페이스북, 인스타그램을 통해 사람들이 공유한다. 

 

iOS11에서는 일반적인 모드에서 이전보다 2배의 사진과 동영상을 동일한 저장 공간의 아이폰에 저장할 수 있게 된다. ⓒ 사진=Pixabay

그래서 모든 스마트폰 제조사들은 카메라에 힘 쏟는다. 애플 역시 아이폰의 카메라를 중요하게 취급한다. 특히 셔터를 누르는 것만으로 최상의 사진을 찍을 수 있는 ‘단순함’을 중시하는 건 애플이 원래 갖고 있던 철학이다. 여기에 더해 새로운 기능도 속속 도입했다. 3초짜리 동영상을 동시에 기록하는 ‘라이브포토’, 듀얼카메라인 아이폰7플러스에 제공되는 세로 모드 사진 등이 그랬다.

 

iOS11에서도 사진은 중요한 포인트다. 특히 사진 때문에 저장 공간이 점점 줄어드는 건 곤혹스런 문제다. 그래서 사용자들은 수시로 백업한 뒤 사진을 삭제하며 용량을 관리해야 했다. 특히 SNS 등으로 동영상의 활용폭이 넓어지면서 저장 공간의 압박은 더 심해졌다. 

 

그래서 iOS11에서는 사진 용량을 작게 만들 수 있도록 파일 포맷을 변경했다. 지금까지 사진은 JPEG, 동영상은 H.264으로 저장됐지만 iOS11에서 사진은 ‘HEIF’(High Efficiency Image File Format), 동영상은 ‘HEVC’(High Efficiency Video Coding)로 적용한다. 새로운 포맷으로 기록된 이미지는 이전 포맷과 비교해 동일한 품질 대비 압축 효율이 뛰어나다. 일반적인 모드에서 이전보다 2배의 사진과 동영상을 동일한 저장 공간의 아이폰에 저장할 수 있게 된다. 

 

일각에서는 iOS11의 사진 압축이 아이폰 판매에 영향을 줄 수 있다는 얘기가 나온다. 128GB 모델의 사용자가 사진 저장의 불편함 때문에 256GB 모델을 구입하려고 했는데 생각을 되돌릴 수 있기 때문이다. SNS에 올릴 때 파일 형식이 다른 걸 우려할 수도 있다. 하지만 걱정은 접어둬도 된다. 공유할 때는 JPEG 파일의 사진이나 H.264 포맷의 동영상으로 변환되기 때문이다.

 

 

똑똑해진 아이폰, 사용자 맞춤형 머신 러닝

 

iOS11의 진화 중 흥미로운 부분은 머신 러닝 엔진이 추가됐다는 점이다. 머신 러닝(컴퓨터가 스스로 주어진 데이터를 반복적으로 학습해 의미를 찾아내고 미래를 예측하는 능력)을 위한 API(개발프로그램)인 ‘Core ML’이 탑재됐다. 일단 머신 러닝을 이용한다는 건 아이폰이 자신을 위해 영리함을 발휘할 수 있게 된다는 의미다. 사용자의 휴대폰 사용 패턴을 파악해 미리 적용할 수 있고 사진의 인식이나 자연어 처리 등 여러 부가 기능을 쉽게 수행할 수 있는 장점이 있다. 

 

머신 러닝은 테크 업계에서 여러 해 전부터 트렌드였다. 데이터를 통해 디바이스가 스스로 학습하고 사용자에게 더 현명한 결과를 제공하는 건데 인공지능에도 적용된다. 이미 우리는 머신 러닝의 활용법을 구글의 바둑 AI인 ‘알파고’를 통해 목격한 적 있다. 다만 이런 머신 러닝을 실현하려면 엄청난 연산 능력을 가진 컴퓨터가 필요했기에 앱 개발자 개인이나 영세한 스타트업이 자유롭게 개발하고 이용할 수 없었다. 

 

그런데 애플은 여기에 다른 접근법을 취했다. iOS11에서 Core ML을 탑재했다는 건 각 사용자의 아이폰에서 사용자 개인만을 위한 머신 러닝을 할 수 있다는 뜻이다. ‘맞춤형 머신 러닝’이라고 생각하면 된다. 실제로 WWDC 2017에서 애플은 머신 러닝의 사례를 보여줬다. 하나는 카메라를 통해 얼굴이나 바코드를 인식하거나, 물체를 추적하고 이미지를 등록하는 과정이었다. 렌즈가 쫓으며 축적하는 데이터를 통한 머신 러닝이었다. 

 

게다가 iOS11을 바탕으로 개발된 응용앱은 ‘사용자 맞춤형 머신 러닝’을 실현하는 것들이 나올 수 있다. 운동 일정을 아이폰에 입력하는 사용자에게 기온과 습도 등을 분석해 운동에 적합한 시간이나 수분 섭취 정도를 알려주는 아이폰을 기대할 수 있다. 

 

iOS11에는 머신 러닝을 위한 API(개발프로그램)인 ‘Core ML’이 탑재돼 영리함을 발휘할 수 있게 됐다. ⓒ 유튜브 화면캡쳐

 

내가 가진 아이폰에서 바로 작동하는 AR

 

iOS11에서 새로 등장한 기능 중 AR(증강현실)은 눈길을 끌었다. iOS11은 ‘ARKit’라는 API를 탑재하며 앱 개발자는 AR기능을 담은 앱을 이전보다 훨씬 쉽게 구현할 수 있게 됐다. 애플이 제공한 AR 데모화면을 보면 현실 세계를 캡처하고 그 중 하나를 인식하고 디지털 정보와 물체 등을 그 위에 배치하는 과정을 담았다. 화면에 비추는 현실의 테이블 위에 컵이나 조명 등을 배치하고 바닥에는 의자를 배치할 수도 있다. 

 

평면을 인식한다는 점, 그리고 각각의 평면에 물체를 배치할 때도 테이블과의 거리와 크기를 매우 정확하게 인식해 자연스럽게 뒤섞인 다는 점에서 ARKit의 잠재력을 느낄 수 있다. (포켓몬고 게임을 할 때 길 위에 어색하게 떠 있는 포켓몬을 봤다면 AR이 자연스럽게 표현되는 게 쉽지 않다는 걸 알 수 있다)

 

여기에서 주목할 점은 A9 프로세서 이상을 탑재한 아이폰6s 이상 모델들과 아이패드 프로부터는 iOS11을 업데이트하는 것만으로 ARKit 응용 프로그램을 사용할 수 있다는 점이다. iOS11이 적용되는 올 하반기에는 약 4억대 정도의 아이폰이 ARKit를 지원하게 된다는 얘기다. 애플 그 자체가 세계 최대의 ‘AR 플랫폼’이 될 수 있다. 

 

그리고 이것이 지니는 비즈니스적인 가치는 매우 크다. 이미 세계적인 가구업체인 이케아가 애플과 공동으로 AR 콘텐츠를 개발 중이다. 아이폰의 카메라로 자신의 방을 비춰 가상의 가구를 배치하는 콘텐츠다. AR의 가상공간에 가구를 이것저것 넣어본 뒤 터치 한 번으로 즉시 가구를 구입하는 방식을 예측할 수 있다. 스웨덴의 IT매체인 ‘DiGITAL’은 “앱이 출시될 때까지 이케아는 AR에서 배치해 볼 수 있는 가구를 약 500~600 종류 정도 준비할 예정”이라고 전했다. 

 

 

 

이 기사에 댓글쓰기펼치기