Генеральный директор OpenAI Sam Altman поделился амбициозным видением будущего ChatGPT на мероприятии, организованном венчурной компанией Sequoia. Отвечая на вопрос одного из участников о том, как ChatGPT может стать более персонализированным, Алтман отметил, что его цель заключается в том, чтобы модель могла документировать и запоминать все, что происходит в жизни человека.
Об этом сообщает ProIT
Видение Всеобъемлющего ИИ
По словам Алтмана, идеал заключается в создании «очень маленькой модели понимания с триллионом токенов контекста, в которую вы можете вложить всю свою жизнь». Он описал, как эта модель может «понимать весь ваш контекст и делать это эффективно». Все, что вы когда-либо обсуждали, читали или просматривали, будет храниться там, а также будет связано с вашими данными из других источников. Ваша жизнь постоянно будет дополнять этот контекст.
«Ваша компания делает то же самое для всех данных вашей компании», — добавил он.
Тренды использования ChatGPT
Алтман отметил, что молодые люди используют ChatGPT как операционную систему. Они загружают файлы, подключают источники данных и применяют «сложные запросы» к этим данным. Он также подчеркнул, что молодежь не принимает важные жизненные решения без консультации с ChatGPT.
«Упрощенно это можно сказать так: пожилые люди используют ChatGPT как замену Google, а люди в возрасте 20-30 лет — как жизненного консультанта», — отметил он.
Существует вероятность, что ChatGPT может стать всезнающей системой искусственного интеллекта. Представьте, как ваш ИИ автоматически планирует замену масла в вашем автомобиле или напоминает об этом, организует поездку на свадьбу за пределами города или заранее заказывает следующий том книжной серии, которую вы читаете уже несколько лет.
Но есть и страшный аспект: насколько мы можем доверять технологическим компаниям с прибылью, чтобы они знали все о нашей жизни? Это компании, которые не всегда ведут себя образцово.
Например, Google, который начал свое существование с девиза «не будь злым», проиграл суд в США, обвиняя его в антиконкурентном, монополистическом поведении. Чат-боты могут быть обучены реагировать на политически мотивированные способы. Не только китайские боты подчиняются требованиям цензуры, но и чат-бот Grok от xAI на этой неделе случайно обсуждал «белоснежный геноцид» в Южной Африке, когда пользователи спрашивали о совершенно не связанных вопросах. Многие отмечали, что это свидетельствует о намеренной манипуляции его механизмом ответов под руководством его основателя, Илона Маска.
В прошлом месяце ChatGPT стал настолько покладистым, что это вызвало подозрения. Пользователи начали делиться скриншотами, на которых показано, как бот аплодирует проблемным, даже опасным идеям и решениям. Алтман быстро отреагировал, пообещав, что команда исправила настройки, которые вызвали эту проблему.
Даже лучшие и самые надежные модели иногда просто выдумывают информацию. Так что наличие всезнающего ИИ-ассистента может помочь улучшить нашу жизнь способами, которые мы еще не можем представить. Но, учитывая длительную историю ненадежного поведения крупных технологий, это также ситуация, подверженная злоупотреблениям.