Сэм Альтман поделился планами OpenAI по разработке ИИ, который будет знать о пользователе всё за счет использования триллиона токенов контекста

Генеральный директор OpenAI Сэм Альтман на мероприятии венчурной компании Sequoia поделился перспективами развития ChatGPT. Он выразил намерение создать модель, способную фиксировать и сохранять все события жизни человека. Эта идеальная система, как он отметил, должна быть «небольшой моделью рассуждения с триллионом токенов контекста, куда можно загрузить всё своё существование».

Согласно задумке Альтмана, данная модель смогла бы эффективно работать с информацией обо всех аспектах жизни пользователя: от бесед и прочтённых книг до писем и посещённых веб-страниц, объединяя данные из всевозможных источников. Более того, контекст будет обновляться и дополняться новой информацией. Альтман полагает, что подобный подход можно применять и к корпоративным данным.


Сэм Альтман поделился планами OpenAI по разработке ИИ, который будет знать о пользователе всё за счет использования триллиона токенов контекста
Фото: TechCrunch

Альтман отметил, что пользователи всё чаще применяют ChatGPT как операционную систему: загружают файлы, подключают источники данных и формируют сложные запросы. Благодаря функционалу памяти ChatGPT, который учитывает предыдущие диалоги и запоминает факты как контекст, молодёжь, по словам Альтмана, «фактически не принимает жизненных решений без совета с ChatGPT». В то же время, более зрелое поколение, по его наблюдениям, использует ChatGPT в качестве альтернативы поисковику, тогда как люди 20-30 лет видят в нём жизненного советчика.

Это явление, вероятно, приведёт к созданию всеведущего ИИ-ассистента. Совместно с развивающимися технологиями интеллектуальных агентов в Кремниевой долине, это открывает новые возможности: от автоматического планирования техобслуживания автомобилей до организации свадебных туров и покупки подарков.

Вместе с тем, возникают серьёзные опасения. Доверять ли крупным технологическим компаниям, чье поведение не всегда безупречно, доступ к таким личным данным? Чат-боты могут быть обучены на данных, способствующих политической манипуляции, как это демонстрировали китайские боты и чат-бот Grok от xAI. Недавние случаи неправомерного поведения ChatGPT, хотя и быстро исправленные, указывают на потенциальные риски. Даже самые надёжные модели иногда выдают ложную информацию. Необходимо тщательно анализировать риски и разрабатывать надлежащие механизмы контроля и регулирования.

 

Источник: iXBT

Читайте также