Атлас искусственного интеллекта: руководство для будущего - страница 11

Шрифт
Интервал


Во второй главе показано, как человеческий труд способствует созданию искусственного интеллекта. Мы рассмотрим цифровых сдельщиков, которым платят за выполнение микрозадач, чтобы системы данных выглядели более интеллектуальными, чем они есть на самом деле[31]. Наше путешествие приведет нас на склады Amazon, где работникам приходится успевать за алгоритмическим ритмом огромной логистической империи. Мы посетим чикагских рабочих-мясников на комбинате, где туши животных подвергаются вивисекции и готовятся к употреблению. И мы услышим рабочих, протестующих против систем искусственного интеллекта, внедряемых для усиления наблюдения и контроля.

Труд – это также и время. Координация действий людей с повторяющимися движениями роботов и линейного оборудования всегда предполагала управление телом в пространстве и времени[32]. От изобретения секундомера до TrueTime от Google процесс координации времени лежит в основе управления рабочим местом. Технологии ИИ как требуют, так и создают условия для все более детальных и точных механизмов управления временем. Координация требует все более подробной информации о том, что делают люди, как и когда.

Третья глава посвящена роли данных. Все общедоступные цифровые материалы – включая личные или потенциально опасные данные – собираются для тренировочных наборов, которые используются для создания моделей ИИ. Существуют гигантские базы данных, полные селфи людей, жестов рук, людей за рулем автомобилей, плача младенцев, разговоров в новостных группах 1990-х годов, и все это собрано для улучшения алгоритмов, выполняющих такие функции, как распознавание лиц, предсказание языка и обнаружение объектов. Когда эти коллекции больше не рассматриваются как личный материал людей, а просто как инфраструктура, конкретное значение или контекст изображения или видео считается неважным. Помимо серьезных вопросов неприкосновенности частной жизни и продолжающегося капитализма наблюдения, нынешняя практика работы с данными в ИИ вызывает глубокие этические, методологические и эпистемологические проблемы[33].

И как же все эти данные используются? В четвертой главе мы рассмотрим практику классификации в системах искусственного интеллекта, то, что социолог Карин Кнорр Цетина называет «эпистемическим механизмом»