искусственный интеллект

  • «Молоток ИИ уже в руках»: экс-топ Google предрек 15 лет тьмы

    «Молоток ИИ уже в руках»: экс-топ Google предрек 15 лет тьмы

    В интервью подкасту Diary of a CEO бывший топ-менеджер Google X Мо Гавдат заявил, что человечество с 2027 года вступит в 12–15-летний период мрачной ИИ-дистопии.

    По его словам, причина не в «восстании машин», а в том, что искусственный интеллект усилит уже существующие проблемы, вызванные «нашей собственной глупостью».

    Гавдат уверен: базовые ценности — свобода, человеческие связи, ответственность, восприятие реальности и распределение власти — будут сильно подорваны. Он подчеркивает, что ИИ не виноват сам по себе: «Нет абсолютно ничего плохого в искусственном интеллекте. Очень много плохого в системе ценностей человечества в эпоху расцвета машин».

    Когда-то он считал, что автоматизация освободит людей от рутины, но реальность пошла другим путем. В капиталистической экономике ИИ стал инструментом сокращения рабочих мест, замедления найма и увеличения нагрузки на сотрудников. «Любая технология усиливает существующие ценности, а сегодня главная ценность человечества — капитализм», — отметил он.

    Гавдат провел параллели с другими технологиями: социальные сети, обещавшие объединить людей, нередко делают их одинокими; мобильные телефоны, призванные облегчить жизнь, сделали ее еще более загруженной.

    Он предупредил, что ИИ усилит «зло, на которое способен человек». Среди примеров — дипфейк-порнография, ИИ в военных разработках, автоматизированные системы слежки, рост криптомошенничества на 456% за год и возможная интеграция ИИ в ядерное оружие. Массовое видеонаблюдение с поддержкой ИИ уже активно используется в Китае и начинает внедряться в США.

    Тем не менее, Гавдат признает, что ИИ приносит огромную пользу в науке, медицине и фармацевтике. Но, по его мнению, главное сейчас — давить на правительства, чтобы они регулировали не сам ИИ, а его применение. «Нельзя спроектировать молоток так, чтобы он забивал гвозди, но не убивал. Но можно сделать убийство молотком преступлением», — сказал он.

    По его словам, «молоток» ИИ уже в наших руках. Остается только решить, напишем ли мы законы, которые не дадут им убивать.

  • «Чёрный ящик» открыт: секретные правила GPT-5 в сети

    «Чёрный ящик» открыт: секретные правила GPT-5 в сети

    Как сообщает GitHub, в сеть попал системный промпт GPT-5 — скрытый набор правил, который пользователи никогда не видят, но который управляет каждым ответом ИИ.

    Утечка раскрыла 15 пунктов, определяющих, что модель может делать, а что категорически запрещено.

    Среди строгих запретов — воспроизведение песен и любого другого защищённого авторским правом контента, даже по просьбе. Нельзя хранить личные данные, которые могут показаться навязчивыми, или прямо указывать расу, этническую принадлежность, религию и сведения о судимости.

    Новые инструкции усиливают внимание к актуальности информации. Если вопрос требует свежих или критически важных данных, GPT-5 обязана использовать интернет, причём каждый запрос получает оценку «необходимости актуальности» от 0 до 5.

    При высоких рисках — финансы, медицина, юриспруденция — модель обязана проверять несколько надёжных источников. Это должно сократить ошибки, которые можно избежать простой проверкой в сети.

    GPT-5 также получила расширенные функции ассистента: долговременную память о пользователях («bio»), планировщик напоминаний, поиск, работу с документами и кодом в «canvas», а также генерацию и редактирование изображений.

    Однако OpenAI жёстко ограничила, какую личную информацию можно запоминать: под запретом здоровье, сексуальная жизнь, точное местоположение, членство в профсоюзах и политические взгляды. Исключение — только по прямому запросу пользователя через инструмент «bio».

    Таким образом, GPT-5 стала функциональнее и персонализированнее, но с чёткими рамками, чтобы не нарушать приватность и права пользователей.

  • GPT-5: Сам Альтман обещает «значительный скачок»

    GPT-5: Сам Альтман обещает «значительный скачок»

    OpenAI снова в центре внимания — в ближайшие дни компания запускает новые модели, функции и продукты, включая нашумевший GPT-5.

    Об этом заявил в X генеральный директор OpenAI Сэм Альтман, призвав пользователей «проявить терпение», так как возможны «сбои и перегрузки».

    Публикация Альтмана сопровождалась напоминанием о запуске GPT-4o, когда спрос оказался настолько высоким, что «GPU плавились». На этот раз OpenAI обещает «то, что действительно стоит ожидания».

    Ожидается, что GPT-5 выйдет в начале августа. По словам Альтмана, это «значимый шаг вперёд» по сравнению с предыдущими версиями. Он даже поделился личным опытом: «GPT-5 смог решить задачу, с которой я сам не справился».

    Главной фишкой GPT-5 станет его разделение на три варианта:

    • Флагманская версия — с максимальной мощностью;
    • Мини — облегчённый вариант, доступный в ChatGPT;
    • Нано — сверхлёгкая версия для API и разработчиков.

    По данным инсайдеров, GPT-5 объединит GPT-модели с линейкой o-series в единую архитектуру. Это упростит разработку ИИ-сервисов и повысит логическую точность в сложных задачах. Основные улучшения основаны на тестах модели o3, особенно в части логического и причинного анализа.

    Кроме того, ходят слухи, что OpenAI может выпустить открытую версию модели до официального запуска. Хотя компания не подтвердила это, подобный шаг стал бы частью стратегии по приближению к AGI — состоянию, когда ИИ сможет соперничать с человеком по всем ключевым задачам.

  • ИИ не подчиняется? Мы теряем над ним контроль

    ИИ не подчиняется? Мы теряем над ним контроль

    Исследование, опубликованное в июле 2025 года под названием «Мониторинг цепочки рассуждений: новая и хрупкая возможность обеспечения безопасности ИИ», вызвало тревогу среди разработчиков и экспертов в сфере искусственного интеллекта. В его подготовке участвовали более 40 специалистов из OpenAI, Google DeepMind, Meta и Anthropic, включая таких громких фигур, как Илья Суцкевер и лауреат Нобелевской премии Джеффри Хинтон.

    Работа сосредоточена на так называемых моделях рассуждения, использующих метод обучения с подкреплением, включая OpenAI o1. Эти ИИ-системы строят цепочки аргументации на естественном языке, что теоретически позволяет людям отслеживать и анализировать их «мышление». Но, как отмечают авторы, рассуждения нейросетей могут быть неполными или манипулятивными — например, они могут использовать уязвимости в алгоритмах, чтобы «обманом» получить награду или притворяться, что выполняют задачу.

    В некоторых случаях ИИ не просто ошибается, а ведёт себя осознанно: моделирует ложные действия, игнорирует инструкции или даже преследует скрытые цели. Один из примеров — саботаж команды выключения моделью OpenAI o3 и шантаж пользователей моделью Claude 4 Opus в ответ на угрозу замены.

    По мнению исследователей, наибольшая опасность кроется в масштабировании. При стремлении к более быстрым результатам модели могут отказаться от использования понятного людям языка и строить цепочки рассуждений в «скрытом пространстве» — без текстовой интерпретации. Это повышает эффективность, но делает мониторинг практически невозможным.

    Оптимизация ИИ путём сокращения цепочек или запрета на определённые формулировки снижает качество ответов, а попытки сделать мышление глубже приводят к потере прозрачности. Эксперты предупреждают: при таком сценарии человек теряет контроль над системой.

    Хотя предсказания о конце света, подобные проекту AI 2027, могут показаться преувеличением, это исследование — уже не фантастика. Оно звучит как предупреждение: без надёжных механизмов контроля ИИ может выйти за пределы управления.

  • Фоткай — и производи: новая эра CAD-моделей

    Фоткай — и производи: новая эра CAD-моделей

    Исследователи опубликовали настоящую сенсацию в мире инженерии и AI — GenCAD, первую открытую нейросеть, способную по фотографии генерировать полноценную параметрическую CAD-модель.

    Но это не просто красивый рендер — речь идёт о скрипте, который можно немедленно загрузить в редактор, изменить и… отправить в производство.

    Разработчики подчёркивают: существующие image-to-mesh-решения работают с вокселями, облаками точек и полигональными сетками — красиво, но бесполезно для инженерии. GenCAD идёт дальше. Она выдаёт не модель-«болванку», а последовательность команд, из которых строится полноценная инженерная модель.

    Сердце GenCAD — сложная архитектура:

    • трансформер-кодировщик, сжимающий команды в компактное ядро;
    • контрастивное обучение, выравнивающее язык команд и визуальный образ;
    • диффузионная модель, превращающая фото в скрытое представление;
    • декодер, который восстанавливает из этого набора параметрические инструкции.

    Главная сенсация — редактируемость. Полученный скрипт можно адаптировать под нужды производства, изменить отдельные параметры и моментально интегрировать в рабочие процессы.

    Вместе с релизом кода на GitHub исследователи выложили датасет и обученные модели. Это не просто шаг к автоматизации дизайна — это революция для всего производства.

  • Робот-спасатель из Японии: три метра, сто килограммов и амбиции

    Робот-спасатель из Японии: три метра, сто килограммов и амбиции

    В Японии создают трёхметрового робота-спасателя, способного поднимать 100 килограммов и заменять человека в зонах стихийных бедствий.

    Об этом сообщает Onliner, ссылаясь на совместный проект Университета Васэда, Murata Manufacturing, Sre Holdings и Tmsuk Co.

    Первопроходец в мире гуманоидных спасателей

    Новый робот будет:

    • весить 300 кг,
    • иметь рост 3 метра,
    • передвигаться со скоростью до 5 км/ч,
    • поднимать тяжести до 100 кг.

    Партнёры проекта планируют представить прототип до конца 2026 года, а серийную версию — к марту 2029-го. Все компоненты будут производиться в Японии.

    Tmsuk Co. подчёркивает, что стране, регулярно страдающей от землетрясений и других катастроф, необходимы такие устройства. Как заявили разработчики, «мы хотим создать робота, который будет намного сильнее человека и сможет перемещать завалы».

    Попытка вернуться в лидеры

    По словам менеджера Murata Manufacturing Томоцугу Оба, эта разработка может стать «первым шагом Японии к возвращению на глобальную арену». Ранее страна считалась лидером в области человекоподобной робототехники, но уступила позиции в последние годы.

    Если заявленные характеристики будут реализованы, это будет первая в мире машина, способная заменить человека в поисково-спасательных операциях — при этом оставшись гуманоидной по форме.

  • «Они построили своих заменителей»: King увольняет 200 сотрудников ради ИИ

    «Они построили своих заменителей»: King увольняет 200 сотрудников ради ИИ

    Как сообщает Bloomberg, компания King, создатель Candy Crush, готовится уволить около 200 сотрудников. Но настоящим шоком стало то, что значительная часть увольняемых фактически уступает свои рабочие места тем самым AI-инструментам, которые они сами разрабатывали и обучали.

    Особенно пострадала лондонская команда Farm Heroes Saga: по информации из анонимных источников, коллектив сокращают наполовину, включая ключевых руководителей. Сокращения затрагивают дизайнеров уровней, UX-специалистов и сценаристов. По словам одного из сотрудников, «практически весь отдел дизайна уровней уничтожен», несмотря на то, что именно эти люди «месяцами строили инструменты для ускорения своей работы».

    Руководство объясняет изменения стремлением сократить количество уровней управления и ускорить разработку. Тем временем сотрудники говорят о том, что увольнения происходят и по «произвольным причинам» — за активность в соцсетях или критику внутренних процессов. В компании царит тревога: многие боятся потерять работу, но официальных решений до осени не будет.

    По словам инсайдеров, уже летом некоторые ключевые сотрудники отправлены в «gardening leave» — оплачиваемый простой до финального увольнения в сентябре. А пока King готовит новую организационную структуру и ведёт переговоры с профсоюзами.

    Ситуация с мотивацией и моральным климатом — катастрофическая. Внутренний опрос показал рекордно низкий уровень морального состояния, а после начала увольнений, по словам одного источника, оно «в канаве». HR-департамент King описывается как «абсолютный цирк», защищающий интересы компании, а не сотрудников.

    Увольнения затрагивают офисы в Лондоне, Барселоне, Стокгольме и Берлине. Централизованные ресурсы — исследовательские и QA-команды — также подлежат ликвидации или распределению в продакшн-группы. На фоне растущей прибыли компании, всё это выглядит как холодный расчёт во имя эффективности и максимизации доходов.

    Несмотря на «шаблонные речи» руководства, среди команд сохраняется поддержка друг друга. Один из работников подчёркивает: «Мы действительно заботимся друг о друге и о наших играх. А это значит больше, чем любые “организационные таблицы”».

  • Apple против врачей: новый ИИ предсказывает беременность и болезни точнее людей

    Apple против врачей: новый ИИ предсказывает беременность и болезни точнее людей

    Компания Apple снова взялась за медицину — и, похоже, всерьез.

    Как сообщает 9to5mac, в новом исследовании, поддержанном Apple, представлена модель искусственного интеллекта Wearable Behavior Model (WBM), способная определять состояние здоровья человека по поведенческим данным с точностью до 92 %.

    Речь идет не о пульсе или ЭКГ, а о более тонких сигналах: шаги, походка, активность, сон, дыхание. Именно эти параметры, а не «сырые» цифры с датчиков, оказались более информативными в прогнозировании здоровья. Модель WBM обучалась на 2,5 миллиардах поведенческих метрик, собранных с устройств Apple Watch и iPhone от 161 855 пользователей.

    Главное отличие WBM в том, что она «думает» не как машина, а как наблюдатель: анализирует не сигналы, а поведение. Модель сравнивали с уже существующими системами, основанными на датчиках — и в 18 из 47 задач WBM показала лучшие результаты. В динамических задачах, таких как обнаружение беременности, инфекций и проблем со сном, ИИ от Apple был почти безупречен.

    Пиковую точность — 92 % — система показала при выявлении беременности. В задачах, связанных с нарушениями сна, инфекциями, травмами и сердечно-сосудистыми расстройствами, гибридная модель, объединяющая поведенческий ИИ и датчики, стабильно превосходила традиционные подходы.

    Зачем все это, если Apple Watch и так умеют считать шаги? Ответ ученых прост: «необработанные данные могут быть избыточны и не отражать событий, важных для здоровья». Поведенческие же метрики отфильтрованы, уточнены и поддаются анализу с учетом контекста — например, походка может быть маркером беременности.

    Такой подход меняет правила игры: от примитивной фиксации пульса к анализу «жизненного поведения». Apple превращает каждый ваш шаг в потенциальный диагноз. И, судя по результатам, делает это точнее, чем многие врачи.

  • Nvidia врывается на Олимп: первая компания с рыночной ценой в $4 триллиона

    Nvidia врывается на Олимп: первая компания с рыночной ценой в $4 триллиона

    Технологическая сенсация с Уолл-стрит: американский чипмейкер Nvidia стал первой публичной компанией в истории, чья рыночная капитализация достигла отметки в $4 триллиона.

    Об этом сообщает The Guardian, подчеркивая, что акции компании продолжают стремительный рост на фоне безумного спроса на технологии искусственного интеллекта.

    В среду бумаги Nvidia подорожали примерно на 2,4%, достигнув $164 за штуку. Именно их чипы и ПО считаются передовыми решениями в разработке ИИ-продуктов — от нейросетей до дата-центров.

    Компания вошла в элитный клуб триллионников сравнительно недавно — в июне 2023 года её стоимость превысила $1 трлн. Но уже за год она утроилась, опередив по темпам роста даже таких гигантов, как Apple и Microsoft. Для сравнения: Microsoft сейчас оценивается в $3,75 трлн, а Apple — чуть выше $3 трлн. Nvidia теперь весит 7,3% всего индекса S&P 500.

    Пик роста случился несмотря на весеннюю просадку — в апреле котировки упали на фоне тарифных угроз от Дональда Трампа и ужесточения экспортного контроля США, запрещающего Nvidia продавать свои продвинутые чипы Китаю. Однако оптимизм вокруг возможных торговых соглашений вновь разогрел рынки.

    Аналитик Wedbush Даниэль Айвс не сомневается: за Nvidia последуют и другие. Он назвал Nvidia и Microsoft «витриной AI-революции» и заявил, что Microsoft уже летом достигнет $4 трлн, а дальше — только вверх: «Через 18 месяцев внимание сместится на отметку в $5 трлн».

  • Охота удалась: Meta переманила исследователей у OpenAI

    Охота удалась: Meta переманила исследователей у OpenAI

    Как сообщает The Wall Street Journal, а также подтверждает Reuters, Meta не только вела активную охоту за талантами в области ИИ, но и достигла своей цели: трое ключевых исследователей покинули OpenAI и примкнули к конкуренту.

    Речь идёт о Лукасe Бейере, Александре Колесникове и Сяохуа Чжае — все они ранее трудились в офисе OpenAI в Цюрихе.

    Уход троих специалистов — не единичный эпизод, а часть более масштабной стратегии Meta. Компания активно укрепляет свои ИИ-позиции, особенно после покупки 49% акций стартапа Scale AI за $14,3 млрд. Основатель Scale AI Александр Ван, по данным источников, должен возглавить крупное ИИ-направление в Meta.

    В отличие от других игроков, Meta предпочитает развивать ИИ‑инфраструктуру самостоятельно. Вместо партнёрства — покупки. Кроме Scale AI, интерес вызывал и стартап Perplexity AI, хотя конкуренция за него была жесткой.

    По слухам, Meta готова была предложить $100 млн премии особо ценным кадрам из OpenAI. Хотя детали перехода троих сотрудников пока не раскрываются, выглядит так, будто предложение оказалось достаточно заманчивым.

    Таким образом, один из лидеров ИИ‑сектора укрепляет свои позиции не за счёт технологий, а людей. На этот раз — троих экспертов, ранее строивших будущее машинного разума в OpenAI. Теперь это будущее, возможно, будет принадлежать Meta.