인텔, 인공지능 가속기 ‘너바나’ 공개...하이브리드 칩 패키징 기술도 발표
상태바
인텔, 인공지능 가속기 ‘너바나’ 공개...하이브리드 칩 패키징 기술도 발표
  • 정두용 기자
  • 승인 2019.08.21 11:54
  • 댓글 0
이 기사를 공유합니다

인텔은 20일(현지시간) 미국 캘리포니아 팔로알토에서 열린 ‘핫칩스 2019’ 학회에서 출시를 앞둔 인공지능(AI) 가속기 인텔 ‘너바나’를 공개했다.

이 제품군에는 트레이닝용 프로세서인 NNP-T와 추론용 프로세서인 NNP-I가 포함된다. 데이터를 정보로 바꾸고 지식으로 전환시키기 위해서는 더 복잡한 활용 사례와 인공지능 기술을 발전시키고 지원할 수 있는 하드웨어와 관련 기술이 필요하다.

인텔 너바나 NNP는 AI 전용 가속기로 고객에게 올바른 인텔리전스를 적절한 시기에 제공하기 위해 처음부터 AI에 중점을 두고 구축했다는 게 회사측 설명이다.

인텔 기술진들은 또한 ‘핫칩스 2019’ 학회에서 하이브리드 칩 패키징 기술을 발표했다. 인텔 옵테인 DC 퍼시스턴트 메모리 및 광학 입출력용 칩렛을 소개했다.

나빈 라오(Naveen Rao) 인텔 부사장 겸 AI 제품 그룹의 총괄 매니저는 “미래의 '모든 곳에 인공지능'을 구현하기 위해서는 생성되는 대량의 데이터를 기업에서 효율적으로 처리하고 활용할 수 있도록 지원해야 한다”며 “데이터 센터와 클라우드는 복잡한 인공지능 애플리케이션을 위해 성능이 뛰어나고 확장 가능한 범용 컴퓨팅 및 전문화된 가속이 필요하다”고 강조했다.

이어 “모든 곳에 인공지능이라는 미래의 비전에는 하드웨어에서 소프트웨어, 애플리케이션에 이르는 종합적인 접근 방식이 필요하다”고 전했다.

인텔 측은 너바나 NNP-T(Neural Network Processor)에 대해 “딥러닝 트레이닝의 경계를 확장한다”고 설명했다. 네트워크를 가능한 빨리 훈련시키면서, 주어진 전력 범위 내에서 역항를 수행할 수 있다. 이 딥러닝 트레이닝 프로세서는 유연성을 염두에 두고 구축됐다는 게 회사 측의 설명이다. 컴퓨팅, 통신 및 메모리 간의 균형을 유지한다.

인텔 너바나 NNP-I는 추론을 위해 특수 제작되어 대규모로 딥러닝 구축을 가속화하도록 설계됐다. 주요 데이터 센터 워크로드에 걸쳐 와트 당 업계 최고의 성능을 제공하기 위해 아이스 레이크(Ice Lake) 코어를 이용했다. 인텔의 10나노 공정 기술을 활용한다.

정두용 기자  lycaon@greened.kr

▶ 기사제보 : pol@greened.kr(기사화될 경우 소정의 원고료를 드립니다)
▶ 녹색경제신문 '홈페이지' / '페이스북 친구추가'

댓글삭제
삭제한 댓글은 다시 복구할 수 없습니다.
그래도 삭제하시겠습니까?
댓글 0
댓글쓰기
계정을 선택하시면 로그인·계정인증을 통해
댓글을 남기실 수 있습니다.