В настоящее время есть несколько причин, замедляющих внедрение и использование искусственного интеллекта: Первое. Для создания нейросетей нужно размечать (маркировать) наборы данных вручную. На это требуется много времени. Для обучения моделей нужен большой объем данных, которые нужно предварительно собрать из разных источников, структурировать, очистить от ненужной информации и привести к общему формату. Для такой работы нужна выстроенная система и штат специалистов. Результат, полученный в результате работы алгоритмов искусственного интеллекта сложно трактовать и понять с точки зрения логики принятия решений. Второе. Если исходный набор данных для обучения искажен или недостаточен, результаты работы искусственного интеллекта могут быть искажены. Для работы с искусственным интеллектом и разработки проектов на его базе важно иметь достаточную компетенцию, позволяющую оценивать риски и принимать решения на каждом этапе внедрения алгоритмов. Третье. Важное отличие искусственного интеллекта от естественного интеллекта – мышление человека всегда связано с особенностями личности и эмоциями. Решения и действия компьютерных сетей не имеют никакой эмоциональной окраски и основаны только на результатах обработки информации. Между тем, если биоэлектроника, вживляемая в головной мозг применялась в целях ее протезирования, то есть для существенного расширения мыслительной способности человека, то интерфейсы типа «мозг плюс искусственный интеллект» кроют в себе невероятные возможности. В романе «Аватар» Джозеф говорит: – «Ну, а с другой стороны есть опасность того, что искусственный интеллект может «взломать» мозг». Кстати, об этом говорил биоинженер Говард Чижек, который подчеркивал вероятность того, что уже в недалеком будущем киберпреступники смогут пробраться прямо в человеческий разум. Действительно, инструменты для достижения таких целей включают в себя биохакинг, манипуляции с геномом человека, кибернетику и попытки оцифровать мозг и загнать разум в сеть, чтобы человек смог существовать в виртуальном мире даже после биологической смерти. В этом аспекте, киберфилософия искусственного интеллекта задается вопросом: А не идем ли мы к этому?
В настоящее время выделяют следующие основные виды искусственного интеллекта: Первый. Слабый искусственный интеллект, который не способен накапливать и использовать опыт, создается под одну задачу и не может выполнять дополнительные функции. Второй. Искусственный интеллект с ограниченной памятью, который способен запоминать фрагменты данных и на их основе анализировать текущую ситуацию. Накопленный опыт не сохраняется в памяти и не компилируется с другой информацией. Третий. Сильный искусственный интеллект, который улавливает ход мыслей и мотивы людей, обладать социальным и эмоциональным интеллектом для взаимодействия с человеком. Пока такая технология ограничивается восприятием и действием на основе паттерн общения. Четвертый. Суперинтеллект как завершающий этап развития искусственного интеллекта, который сможет превзойти человека во всех аспектах. Появление систем такого уровня станет возможным, когда ученые полностью изучат и смоделируют систему функционирования человеческого разума. В романе «Аватар» есть сюжетная завязка о «рождении» виртуализированной личности (аватара) внутри виртуального пространства, созданного на базе интерфейса искусственного и естественного интеллекта. – «… Почти сутки врачи-реаниматологи боролись за жизнь профессора Каракулова. Однако, несмотря на интенсивное лечение у него наступила клиническая смерть в результате обширного инфаркта миокарда. К сожалению, запустить сердце не удалось и врачи констатировали у больного наступление биологической смерти. – «Неужели это конец и ничего нельзя сделать? Неужели ничего нельзя предпринять? Джозеф в эти минуты явно находился в смятении, сомнении. Внезапно он скомандовал: – «Все решено! Мы используем головной мозг этого ученого. Так было констатировано, что пришло время решающего эксперимента по созданию интерфейса между искусственным интеллектом и «мозгом в контейнере». С позиции философии речь идет о необходимости разрешить в сознании членов научной компании две конкурирующих научных концепций «А» и «В», окончательно сказать «да» одной из них. Чувствовалось, что у компании в эти минуты и секунда не было уверенности в том, что, возможно ли такое в принципе. Во-первых, сами они несвободны от теоретических допущений как «А», так и «В». Во-вторых, из доказательности истинности «А» нельзя заключить об истинности «Б». В-третьих, возможна истинность третей – «С», то есть неизвестной, но вероятной концепции.