Нова технология на IBM направи възможно ускоряването на AI обучението с 4 пъти - - Алтернативен изглед

Нова технология на IBM направи възможно ускоряването на AI обучението с 4 пъти - - Алтернативен изглед
Нова технология на IBM направи възможно ускоряването на AI обучението с 4 пъти - - Алтернативен изглед

Видео: Нова технология на IBM направи възможно ускоряването на AI обучението с 4 пъти - - Алтернативен изглед

Видео: Нова технология на IBM направи възможно ускоряването на AI обучението с 4 пъти - - Алтернативен изглед
Видео: Дигитално обучение и стил при COVID-19: проф. Любомир Стойков 2024, Може
Anonim

Изчислителната ефективност на изкуствения интелект е като нож с две остриета. От една страна, тя трябва да се научи доста бързо, но колкото повече невронната мрежа „ускорява“, толкова повече изразходва енергия. Това означава, че може да стане просто неизгодно. Изход от ситуацията обаче може да даде IBM, който демонстрира нови методи за преподаване на AI, които ще му позволят да се учи няколко пъти по-бързо при едно и също ниво на ресурс и енергия.

За да постигне тези резултати, IBM трябваше да изостави изчислителните методи, използвайки 32-битови и 16-битови техники, разработвайки 8-битова техника, както и нов чип, за да работи с нея.

Всички разработки на IBM бяха представени на NeurIPS 2018 в Монреал. Инженерите на компанията говориха за две разработки. Първата се нарича "дълбоко машинно обучение на невронни мрежи с използване на 8-битови числа с плаваща запетая". В него те описват как успяват да намалят аритметичната точност за приложения от 32-битови до 16-битови по такъв начин и да го запишат на 8-битов модел. Експертите твърдят, че техниката им ускорява времето за обучение на дълбоки невронни мрежи с 2-4 пъти в сравнение с 16-битовите системи. Втората разработка е "8-битово умножение в паметта с прогнозирана фазова преходна памет." Тук експертите разкриват метод, който компенсира ниската вярност на аналогови AI чипове, като им позволява да консумират 33 пъти по-малко мощност в сравнение със сравними цифрови AI системи.

Владимир Кузнецов