Глубинное обучение обладает огромным потенциалом. ИИ может обрабатывать миллионы данных и находить связи, которые недоступны человеческому восприятию. Однако у него нет интуиции, опыта и здравого смысла. Он не понимает контекста так, как это делает человек. Искусственный интеллект уязвим к предвзятости и дискриминации. В истории Наяны алгоритм не знал, что ее возлюбленный принадлежит к другой касте, а этот брак может считаться социально неприемлемым. Но, проанализировав данные о его семье и районе проживания, он интерпретировал ситуацию как потенциальную угрозу благополучию семьи Наяны.
В ближайшие годы глубинное обучение будет развиваться еще стремительнее. Вопрос о том, как сделать ИИ полезным для общества, станет одной из ключевых задач ближайшего будущего.
Амака был напуган. Сомнительная компания под названием Layella предложила ему, как опытному программисту, создать для них поддельное видео. Ему нужно было смонтировать ролик, в котором известный нигерийский политик признается в скандальном поступке. Если бы Амака отказался, компания пригрозила опубликовать фальшивое видео, на котором он целуется с другим мужчиной в ночном клубе.
Это грозило не только общественным осуждением, но и тюремным заключением. К 2041 году подделки станут настолько правдоподобными, что отличить их от реальности будет практически невозможно. В 2018 году в сети стало вирусным видео, где бывший президент США Барак Обама называл Дональда Трампа «полным идиотом». Однако это видео было фальшивкой.
Это был дипфейк, созданный BuzzFeed, чтобы продемонстрировать возможности технологий ИИ и предостеречь общество от безоговорочного доверия к цифровым медиа. Чтобы разработать технологию создания дипфейков, программисты сначала научили компьютеры анализировать изображения и придавать им смысл. Они вдохновлялись принципами работы человеческого мозга: зрительная кора собирает визуальную информацию, а затем неокортекс интерпретирует ее, создавая сложные образы. По аналогии разработчики создали сверточную нейронную сеть (CNN).