Британската компания DeepMind, която стана част от Google през 2014 г., непрекъснато работи за подобряване на изкуствения интелект. През юни 2018 г. служителите му представиха невронна мрежа, способна да създава 3D изображения от 2D. През октомври разработчиците отидоха по-далеч - създадоха невронна мрежа BigGAN, за да генерират изображения на природа, животни и предмети, които е трудно да се различат от реалните снимки.
Както и при други проекти за изкуствени изображения, тази технология се основава на генеративна състезателна невронна мрежа. Спомнете си, че той се състои от две части: генератор и дискриминатор. Първият създава образи, а вторият оценява сходството им с пробите от идеалния резултат.
В тази работа искахме да размием линията между генерираните от AI изображения и снимки от реалния свят. Установихме, че съществуващите методи за генериране са достатъчни за това.
Използвани са различни набори изображения, за да се научи BigGAN да създава снимки на пеперуди, кучета и храна. Първо, обучението се основаваше на базата данни ImageNet, а след това - по-големият набор от JFT-300M от 300 милиона изображения, разделен на 18 000 категории.
Обучението на BigGAN отне 2 дни. Отнеха 128 тензорни процесора Google, създадени специално за машинно обучение.
Професори от шотландския университет Heriot-Watt също участваха в развитието на невронната мрежа. Подробности за технологията са описани в статията „Обучение
мащабна генеративна аверсивна невронна мрежа GAN за синтез на висококачествени естествени образи”.
Промоционално видео:
През септември изследователи от Университета Карнеги Мелон използваха генеративни състезателни невронни мрежи, за да създадат система за наслагване на изражението на лицето върху лицата на другите.
Рамис Ганиев