NXP 반도체는 글로우 신경망 컴파일러를 위한 eIQ 머신 러닝 소프트웨어를 지원한다고 발표했다. 이로써 업계 최초의 NN 컴파일러 실행을 통해 NXP의 i.MX RT 크로스오버 MCU상에서 적은 메모리 사용량으로 우수한 성능을 구현하게 되었다.

페이스북이 개발한 글로우는 타깃 별 최적화를 통합할 수 있다. NXP는 NN 오퍼레이터 라이브러리를 사용해서 이 기능을 Arm 코어텍스-M 코어와 카덴스 텐실리카 HiFi 4 DSP에 적용하여 i.MX RT685, i.MX RT1050, RT1060의 추론 성능을 최적화했다.

이 기능은 NXP MCUXpresso SDK에서 무료로 제공되는 NXP eIQ 머신 러닝 소프트웨어 개발 환경에 통합됐다.

글로우 이용해서 MCU 아키텍처 특징 활용

2018년 5월, 파이토치의 주요 선도기업인 페이스북은 다양한 하드웨어 플랫폼에서 신경망 성능을 가속화하기 위해 최적화를 제공하고자 오픈 소스 커뮤니티 프로젝트로 글로우를 도입했다.

NN 컴파일러로 글로우는 최적화되지 않은 신경망을 가져와 최적화가 잘된 코드를 생성한다. 그렇기 때문에 더 높은 성능을 요구하고, 메모리 오버헤드를 추가하는 JIT 컴필레이션이 활용되는 일반 신경망 모델 프로세싱과는 다르다. 글로우에서 가능한 것처럼 직접 최적화된 코드를 돌리면 프로세싱 및 메모리 요건이 현격히 줄어든다.

NXP는 글로우 오픈 소스 커뮤니티에서 적극적인 역할을 맡아 새로운 글로우 기능이 포괄적으로 채택되도록 지원하고 있다.

드와락 라자고팔, 페이스북의 소프트웨어 엔지니어링 매니저는 “깃허브에서 나온 바로 사용 가능한 글로우 기본 버전은 RISC-V뿐만 아니라 Arm 코어텍스-A 와 코어텍스-M 코어 등을 비롯해 사용자들이 관심이 있는 기본 아키텍처에 신경망 모델을 컴파일 할 수 있도록 유연성을 제공해, 특정 기기에 종속적이지 않다”면서, “MCU의 컴퓨트 엘리먼트를 활용하는 특수 목적 소프트웨어 라이브러리를 이용하고 2-3배 성능을 향상함으로써, NXP는 고급사양 클라우드 기반 기계에서 저가 임베디드 플랫폼까지 다양한 머신 러닝 애플리케이션에 글로우 NN 컴파일러를 사용함으로써 얻을 수 있는 여러 가지 장점을 입증했다”고 말했다.

최적화된 머신 러닝 프레임워크로 경쟁 우위 확보

향후 수 년간 ML 애플리케이션 수요가 상당히 증가할 것으로 예측된다. TIRIAS 리서치는 2025년까지 전체 엣지 디바이스의 98%가 어떤 형태이든 머신 러닝/인공 지능을 이용하게 될 것으로 전망한다.

시장 예측에 따르면, 2025년까지 전용 ML 가속기 없이도 180억-250억 개의 디바이스에 ML 기능이 포함될 것이라고 한다.

소비자 기기 제조업체들과 임베디드 IoT 개발자들은 MCU를 이용하는 저전력 엣지 임베디드 애플리케이션용으로 최적화된 ML 프레임워크를 필요로 하게 될 것이다.

   

XE Login