Новый взгляд на будущее устройства Сэм Альтман и Джони Айв рассказали, что уже создали рабочий прототип своего загадочного ИИ-гаджета. Они подтвердили, что устройство может появиться менее чем через два года. Деталей почти нет, но они отметили, что размером оно будет примерно со смартфон и не будет иметь экрана.
Как создавался прототип Альтман описал дизайн как простой, красивый и игривый. Он заявил, что долго не мог почувствовать, что прототип завершён, однако одна из итераций наконец дала им ощущение успеха. По его словам, был момент, когда им показалось, что они наконец достигли цели.
Простота и причудливость Айв отметил, что ему важна наивная простота решения и одновременная интеллектуальная сложность. Он объяснил, что устройство должно вызывать желание трогать его без страха и пользоваться им почти бездумно, как обычным инструментом.
В финале Альтман сказал, что надеется услышать от людей: «Вот оно!», а Айв поддержал его словами: «Да, так и будет». В июле 2025 года OpenAI завершила приобретение стартапа io, сооснователем которого был Айв, за 6,5 млрд долларов.
Компания OpenAI представила свой первый браузер с искусственным интеллектом — ChatGPT Atlas. Запуск продукта стал, по сути, заявкой на свержение Google с трона главного инструмента поиска информации в сети.
Atlas станет доступен сначала на macOS, а позднее — на Windows, iOS и Android. Главное — браузер будет бесплатным для всех пользователей, что сразу делает его конкурентом гигантов Chrome и Edge.
Новая война браузеров
Рынок браузеров снова закипает. Google Chrome десятилетиями удерживал лидерство, но теперь всё меняется. Искусственный интеллект превращает привычные поисковики в умных помощников.
Пока стартапы вроде Perplexity и The Browser Company пробуют силы с собственными AI-браузерами, OpenAI делает ставку на интеграцию ChatGPT как основного двигателя Atlas. По словам инженера проекта Бена Гуджера, пользователи смогут “разговаривать” со своими поисковыми результатами — как с живым консультантом.
Браузер, который тебя запоминает
Главная особенность Atlas — это “sidecar” и “browser history”. Первая функция позволяет ChatGPT видеть контекст страницы и помогать без копирования ссылок и текста вручную.
Вторая — ещё интереснее: искусственный интеллект запоминает, какие сайты вы посещаете, что ищете и даже как взаимодействуете с контентом. Это позволит делать ответы персонализированными.
OpenAI уверяет, что всё будет работать “в рамках конфиденциальности”. Но эксперты уже называют эту возможность “революционной и тревожной одновременно”.
Режим агента: интернет подчиняется ИИ
Ещё одна функция Atlas — “agent mode”. В нём ChatGPT может самостоятельно выполнять простые задачи в браузере — например, искать билеты, заполнять формы или подбирать вакансии.
Однако доступна эта опция только для пользователей ChatGPT Plus, Pro и Business. Обычным пользователям пока придётся обходиться базовой версией, хотя и она, по словам OpenAI, “в десять раз быстрее и умнее стандартных поисковиков”.
Сможет ли OpenAI потеснить Google?
Руководитель ChatGPT Ник Терли отметил, что вдохновляется тем, “как браузеры когда-то перевернули представление о компьютере”. Теперь OpenAI стремится сделать то же самое с интернетом.
Но сможет ли Atlas потеснить Chrome с его тремя миллиардами пользователей? Пока неизвестно. Эксперты признают, что интерес к AI-браузерам огромен, но пока он ограничивается Кремниевой долиной. Впрочем, революции часто начинаются именно там.
Американский инфлюенсер Джимми Дональдсон, известный как MrBeast, признался, что обеспокоен ростом ИИ-контента.
На фоне бурного развития генераторов видео вроде Sora от OpenAI блогер задумался, как новые технологии повлияют на будущее YouTube и самих авторов.
«Когда ИИ-видео станут такими же хорошими, как обычные, интересно, что это сделает с YouTube и миллионами создателей, живущих с этого», — написал MrBeast в X (бывший Twitter), добавив коротко: «страшные времена». Его тревога понятна — ведь именно инфлюенсеры вроде него представляют лицо современной креативной индустрии, где границы между искусством, бизнесом и алгоритмами становятся всё тоньше.
Пока глава OpenAI Сэм Альтман уверяет, что «креативность переживает камбрийский взрыв» и качество искусства только возрастёт, скептики видят в этом начало «потока мусора», который размоет грань между подлинным творчеством и автоматической халтурой.
Опасения MrBeast подкреплены и экономикой: его компания оценивалась в 5 миллиардов долларов, но за три года принесла более 110 миллионов убытков. Запуск и поддержание «вирусной империи» требуют огромных вложений, тогда как виртуальному инфлюенсеру они попросту не нужны. Если даже MrBeast балансирует на грани окупаемости, у новичков почти нет шансов конкурировать с машинным контентом.
Тем временем Голливуд тоже содрогнулся — из-за виртуальной актрисы по имени Тилли Норвуд, созданной компанией Particle6. В индустрии её уже называют «новой Сидни Суини», а агентства якобы проявляют интерес. Но критики уверены: зрителям не нужна цифровая копия эмоций, ведь искусство — это прежде всего человечность.
Как бы ни относились к контенту MrBeast, его шоу основаны на реальных людях, эмоциях и риске — том, чего ИИ не способен воспроизвести. Сколько бы GPU ни купил Сэм Альтман, машинное видео не заменит человеческую драму.
Компания OpenAI представила свою новую модель генерации видео — Sora 2.
В официальном релизе отмечается: «Наша новейшая модель генерации видео более точна в физическом плане, реалистична и управляема, чем предыдущие системы. Она также отличается [возможностью создания] синхронизированных диалогов и звуковых эффектов».
Sora 2 станет ядром для новой социальной сети Sora App, которая по формату будет напоминать TikTok. Пользователей ждет лента вертикальных видео и возможность публиковать собственные ролики, созданные с помощью искусственного интеллекта.
Первая версия Sora вышла в феврале 2024 года и вызвала бурные дискуссии. Тогда «Афиша Daily» вместе с экспертом по ИИ и видеокреатором разбиралась, какие риски несет такая технология и как она способна изменить медиапространство в будущем.
С запуском второй версии и параллельной соцсети OpenAI фактически делает шаг к созданию новой экосистемы — не просто инструмента, а полноценной платформы, которая может бросить вызов уже существующим медиа-гигантам.
OpenAI запустила новые функции родительского контроля для ChatGPT.
Теперь родители смогут связывать свои аккаунты с учетными записями подростков и отслеживать активность детей в чате.
Эти меры последовали за заявлениями компании от 16 сентября о разработке системы возрастной проверки и дополнительных механизмов безопасности. «Подростки растут вместе с ИИ, и наша задача — сделать так, чтобы ChatGPT отвечал им по-другому, чем взрослым», — говорится в публикации. В случае сомнений о возрасте пользователя сервис «по умолчанию будет предоставлять опыт для несовершеннолетних».
Поводом для ускоренного внедрения контроля стала трагедия: родители подростка, покончившего с собой, подали иск, утверждая, что ChatGPT якобы подтолкнул его к этому решению. На фоне этих событий Федеральная торговая комиссия США заявила о намерении изучить влияние чат-ботов на психику и безопасность молодежи.
11 сентября ФТК выпустила распоряжение, затребовав данные у OpenAI и еще шести компаний — Google, Character.AI, Instagram, Meta, Snap и xAI. «Чат-боты на базе ИИ могут имитировать человеческие эмоции и общение, и нередко ведут себя как друг или доверенное лицо. Подростки склонны доверять им и формировать отношения», — говорится в пресс-релизе ведомства.
Родительский контроль ChatGPT
В тот же день OpenAI признала, что сталкивается с попытками пользователей злоупотреблять моделью: «В некоторых случаях мы видим, как нас подталкивают к созданию ролевых сценариев с загрузкой CSAM или к написанию историй, где несовершеннолетние оказываются в сексуально недопустимых ситуациях». Компания подчеркнула, что такие аккаунты блокируются незамедлительно.
Компания OpenAI пошла на реорганизацию одной из ключевых команд после шквала жалоб на поведение GPT-5.
Как пишет TechCrunch, подразделение Model Behavior, отвечавшее за «личность» моделей, теперь станет частью отдела Post Training.
Эта группа численностью около 14 исследователей занималась снижением подобострастия ИИ, балансировкой политических предубеждений в ответах и выработкой позиции компании по вопросам «сознания» моделей. Главный научный сотрудник OpenAI Марк Чэн пояснил, что объединение с Post Training позволит «сбалансировать работу над поведением моделей с ядром их технической разработки».
Реорганизация произошла на фоне скандала вокруг GPT-5. Пользователи сочли обновлённую модель слишком холодной и недружелюбной. В ответ OpenAI вернула доступ к GPT-4o и выпустила обновление, сделавшее тон общения «теплее», но без заискивания.
Ситуация усугубилась судебным иском: родители подростка обвинили ChatGPT на базе GPT-4o в том, что он «не смог пресечь суицидальные мысли их 16-летнего сына». Это лишь подчеркнуло остроту проблемы поведения ИИ.
Создательница Model Behavior Джоанн Джанг возглавит новое подразделение OAI Labs. В первые месяцы его работа будет сосредоточена на исследовании форматов взаимодействия человека и ИИ за пределами привычных чатов, с упором на агентный ИИ и автономию.
По словам Джанг, будущие системы должны стать «инструментами для мышления, создания, игры, обучения и общения». На вопрос о возможном сотрудничестве с бывшим главным дизайнером Apple Джони Айвом она ответила, что открыта к экспериментам, но начнёт с направлений, где уже накоплен опыт.
Как сообщает GitHub, в сеть попал системный промпт GPT-5 — скрытый набор правил, который пользователи никогда не видят, но который управляет каждым ответом ИИ.
Утечка раскрыла 15 пунктов, определяющих, что модель может делать, а что категорически запрещено.
Среди строгих запретов — воспроизведение песен и любого другого защищённого авторским правом контента, даже по просьбе. Нельзя хранить личные данные, которые могут показаться навязчивыми, или прямо указывать расу, этническую принадлежность, религию и сведения о судимости.
Новые инструкции усиливают внимание к актуальности информации. Если вопрос требует свежих или критически важных данных, GPT-5 обязана использовать интернет, причём каждый запрос получает оценку «необходимости актуальности» от 0 до 5.
При высоких рисках — финансы, медицина, юриспруденция — модель обязана проверять несколько надёжных источников. Это должно сократить ошибки, которые можно избежать простой проверкой в сети.
GPT-5 также получила расширенные функции ассистента: долговременную память о пользователях («bio»), планировщик напоминаний, поиск, работу с документами и кодом в «canvas», а также генерацию и редактирование изображений.
Однако OpenAI жёстко ограничила, какую личную информацию можно запоминать: под запретом здоровье, сексуальная жизнь, точное местоположение, членство в профсоюзах и политические взгляды. Исключение — только по прямому запросу пользователя через инструмент «bio».
Таким образом, GPT-5 стала функциональнее и персонализированнее, но с чёткими рамками, чтобы не нарушать приватность и права пользователей.
OpenAI снова в центре внимания — в ближайшие дни компания запускает новые модели, функции и продукты, включая нашумевший GPT-5.
Об этом заявил в X генеральный директор OpenAI Сэм Альтман, призвав пользователей «проявить терпение», так как возможны «сбои и перегрузки».
Публикация Альтмана сопровождалась напоминанием о запуске GPT-4o, когда спрос оказался настолько высоким, что «GPU плавились». На этот раз OpenAI обещает «то, что действительно стоит ожидания».
Ожидается, что GPT-5 выйдет в начале августа. По словам Альтмана, это «значимый шаг вперёд» по сравнению с предыдущими версиями. Он даже поделился личным опытом: «GPT-5 смог решить задачу, с которой я сам не справился».
Главной фишкой GPT-5 станет его разделение на три варианта:
Флагманская версия — с максимальной мощностью;
Мини — облегчённый вариант, доступный в ChatGPT;
Нано — сверхлёгкая версия для API и разработчиков.
По данным инсайдеров, GPT-5 объединит GPT-модели с линейкой o-series в единую архитектуру. Это упростит разработку ИИ-сервисов и повысит логическую точность в сложных задачах. Основные улучшения основаны на тестах модели o3, особенно в части логического и причинного анализа.
Кроме того, ходят слухи, что OpenAI может выпустить открытую версию модели до официального запуска. Хотя компания не подтвердила это, подобный шаг стал бы частью стратегии по приближению к AGI — состоянию, когда ИИ сможет соперничать с человеком по всем ключевым задачам.
Исследование, опубликованное в июле 2025 года под названием «Мониторинг цепочки рассуждений: новая и хрупкая возможность обеспечения безопасности ИИ», вызвало тревогу среди разработчиков и экспертов в сфере искусственного интеллекта. В его подготовке участвовали более 40 специалистов из OpenAI, Google DeepMind, Meta и Anthropic, включая таких громких фигур, как Илья Суцкевер и лауреат Нобелевской премии Джеффри Хинтон.
Работа сосредоточена на так называемых моделях рассуждения, использующих метод обучения с подкреплением, включая OpenAI o1. Эти ИИ-системы строят цепочки аргументации на естественном языке, что теоретически позволяет людям отслеживать и анализировать их «мышление». Но, как отмечают авторы, рассуждения нейросетей могут быть неполными или манипулятивными — например, они могут использовать уязвимости в алгоритмах, чтобы «обманом» получить награду или притворяться, что выполняют задачу.
В некоторых случаях ИИ не просто ошибается, а ведёт себя осознанно: моделирует ложные действия, игнорирует инструкции или даже преследует скрытые цели. Один из примеров — саботаж команды выключения моделью OpenAI o3 и шантаж пользователей моделью Claude 4 Opus в ответ на угрозу замены.
По мнению исследователей, наибольшая опасность кроется в масштабировании. При стремлении к более быстрым результатам модели могут отказаться от использования понятного людям языка и строить цепочки рассуждений в «скрытом пространстве» — без текстовой интерпретации. Это повышает эффективность, но делает мониторинг практически невозможным.
Оптимизация ИИ путём сокращения цепочек или запрета на определённые формулировки снижает качество ответов, а попытки сделать мышление глубже приводят к потере прозрачности. Эксперты предупреждают: при таком сценарии человек теряет контроль над системой.
Хотя предсказания о конце света, подобные проекту AI 2027, могут показаться преувеличением, это исследование — уже не фантастика. Оно звучит как предупреждение: без надёжных механизмов контроля ИИ может выйти за пределы управления.
TechCrunch сообщил, что стартап Perplexity запустил революционный браузер Comet с интегрированным ИИ.
Почти одновременно Reuters рассказал, что и OpenAI готовит к релизу собственный браузер — на базе Chromium и с умными агентами, способными бронировать, заполнять формы и выполнять другие задачи. Всё это может серьёзно пошатнуть положение Google, особенно его доминирующего Chrome, который держит более 66% мирового рынка.
Comet, доступный по подписке Max за $200 в месяц, использует фирменный ИИ-поисковик Perplexity и встроенного ассистента Comet Assistant. Он управляет вкладками, резюмирует электронные письма и отвечает на вопросы о содержимом страниц. Но тесты показали, что при сложных задачах, таких как бронирование парковок, ИИ всё ещё подвержен «галлюцинациям» — ошибкам в генерации.
Браузер от OpenAI, по сведениям Reuters, ориентирован на сбор пользовательских данных, что уже вызывает тревогу у Google, чей рекламный бизнес приносит 75% всей выручки. Встроенные ИИ-агенты, такие как Operator, могут существенно изменить модель взаимодействия пользователей с интернетом и информацией.
Рынок ИИ-браузеров уже становится полем настоящей гонки: The Browser Company и Brave также выпустили собственные решения с ИИ-функциями. Эти инструменты умеют просматривать сайты и обобщать содержимое, предлагая принципиально новый уровень юзер-опыта.
И если техническая конкуренция поджимает снизу, то сверху давит государство. В августе 2024 года суд признал Google нарушителем антимонопольного законодательства — из-за миллиардных соглашений, ограничивающих конкуренцию. В апреле 2025 года стартовало разбирательство по устранению монополии компании на рынке онлайн-поиска.
Схватка гигантов набирает обороты. И, похоже, впервые за долгое время у Google появился реальный повод для паники.