создавалось 40 000 поисковых запросов и публиковалось 7 800 твитов. Все больше и больше компаний использовали интернет в качестве части своего бизнеса и генерировали огромные объемы данных. В 2016 году в день собиралось 44 миллиарда гигабайт данных. Подсчитано, что к 2025 году в день мы будем генерировать 463 миллиарда гигабайт.
У меня есть мечта…[7] Машины смогут анализировать все данные в сети… сегодняшние механизмы торговли, бюрократии и повседневной жизни будут управляться машинами, разговаривающими с машинами, оставив людям вдохновение и интуицию.
ТИМ БЕРНЕРС-ЛИ (2000)
У нас больше нет выбора: ни один человек не сможет осмыслить эти ошеломляющие объемы данных. Наша единственная надежда – использовать ИИ в качестве помощника. К счастью, об этом речь пойдет в следующих главах, другие формы ИИ теперь способны обрабатывать неструктурированные и немаркированные данные и помечать их особыми метками, давая символическим ИИ то, что им необходимо, чтобы оперировать такими данными. В конце концов, пожалуй, не имеет значения, будет ли это истинный интеллект (сильный ИИ) или своего рода притворный (слабый ИИ). Обработка символьных сетей в соответствии с правилами позволяет нашим компьютерам осмысливать обширную вселенную данных. Так что, возможно, мечта Бернерса-Ли однажды все же станет реальностью.