Chat GPT и Революция Искусственного Интеллекта - страница 4

Шрифт
Интервал


Вы можете спросить, чем же ChatGPT отличается от Google или голосовых ассистентов наподобие Алисы, Сири, Cortana и Alexa? Во-первых, ChatGPT не просто выдает подходящие результаты из других сайтов, а сам генерирует информацию по вашему конкретному запросу, опираясь на весь массив информации, на котором он был обучен. Во-вторых, он может самостоятельно писать свой или редактировать написанный вами программный код, чем не могут похвастаться упомянутые голосовые помощники. В-третьих, он может самостоятельно писать аналитические, новостные или академические тексты, сценарии, полноценные статьи, песни, шутки и любые виды текстов на основе ваших критериев. О примерах использования и бизнес-идеях на основе ChatGPT мы поговорим подробнее чуть позже.

Почему ChatGPT стал таким популярным за такой короткий срок и почему ему (и его последующим версиям) пророчат великое будущее? Потому что очевидно, что способность задавать вопросы на любую тему и получать полноценный и развернутый ответ на понятном для вас языке, который не был заранее запрограммирован вручную, имеет огромный рынок с практически безграничным спросом.

Как работает ChatGPT?

ChatGPT – это можно сказать улучшенная версия предыдущей модели GPT 3, которая была натренирована на миллиардах слов и предложений по всему интернету. Когда он генерирует текст, он пытается предсказать каким должно быть следующее слово в данном конкретном предложении, опираясь на свою огромную выборку текстов. Конечным результатом становится имитация текста, написанного якобы человеком. ChatGPT еще иногда называют GPT 3.5, и основным различием является то, что OpenAI добавили обратную связь от людей в процесс обучения. Это называется Supervised Reinforcement Learning – обучение с учителем с подкреплением.

Почему это называется «обучение с учителем»? Потому что во время обучения модели, различные версии ответов на тот или иной запрос программой ранжируются человеком по качеству ответа: от наилучшей к худшей, и программе дается цифровое поощрение, когда она улучшает качество своего ответа. Модель дальше подвергается тонкой донастройке и регулированию, и процесс повторяется несколько раз.

Такой метод в итоге произвел языковую модель ИИ, которая в 100 раз меньше по размеру чем предыдущая модель GPT 3, но эффективность которой существенно выше. Для увеличения эффективности, разработчики модели создали архитектуру, состоящую из 175 млрд параметров (предыдущая модель состояла всего из 1,5 млрд параметров).