нейросети

  • Искусственный интеллект провалил Последний экзамен человечества

    Искусственный интеллект провалил Последний экзамен человечества

    Ученые со всего мира проверили пределы возможностей ИИ. Обновлённый тест Humanity’s Last Exam был описан в материале The Conversation, а результаты опубликованы в Nature. Итоги оказались неожиданно слабыми даже для самых мощных моделей.

    Над бенчмарком работала группа из почти тысячи исследователей. Они создали предельную проверку для машинного интеллекта. Название теста сразу задало тон — «Последний экзамен человечества».

    В экзамен вошли 2500 сложных вопросов. Они охватывают математику, биологию, физику и гуманитарные науки. Даже модели уровня GPT-5 и Gemini 2.5 Pro набрали около 25 процентов.

    Зубрежка вместо мышления

    ИИ уверенно справляется со школьными и типовыми заданиями. Но в этом тесте он оказался беспомощным. Причина — способ обучения нейросетей.

    Если ответ есть в интернете или обучающих данных, модель его находит. Но вопросы экзамена не имеют готовых решений. Они требуют логики и применения знаний в новых условиях.

    Примером стал перевод надписи на древнем языке. Таких текстов нет в учебниках. Здесь и выяснилось, что за «интеллектом» часто скрывается память.

    Гонка за баллами

    После публикации теста разработчики начали натаскивать модели. Новые версии, такие как GPT-5.2 и Gemini 3 Pro, уже показывают 30–38 процентов. Ученые подчеркивают: это не рост интеллекта.

    Авторы статьи отмечают: «Человеческий интеллект первичен, язык — это инструмент». У моделей язык и есть интеллект, под ним ничего нет. Высокие баллы не означают умение принимать сложные решения.

    Исследователи советуют не доверять бенчмаркам слепо. Экзамен показал, что до гибкого человеческого разума машинам ещё далеко.

  • Роботов научили чувствовать боль ради безопасности людей

    Роботов научили чувствовать боль ради безопасности людей

    Учёные сообщили о создании прототипа нейроморфной искусственной кожи для роботов. Разработка, как отмечают авторы, вдохновлена принципами работы нервной системы человека. В отличие от обычных датчиков она использует импульсные сигналы, похожие на работу биологических нейронов.

    Как работает искусственная кожа

    Информация о прикосновении и давлении кодируется в виде электрических «спайков». Каждый сенсор имеет уникальный идентификатор. Для передачи данных используются форма, амплитуда и длительность импульсов.

    На следующем уровне сигналы поступают в модуль, аналогичный спинному мозгу. Там они фильтруются, локализуются и анализируются. В этом же блоке задаётся болевой порог. При его превышении робот прекращает давление и отдёргивает манипулятор.

    Рефлексы без участия процессора

    Базовые реакции запрограммированы на самом нижнем уровне архитектуры. Это позволяет роботу реагировать мгновенно, без анализа центральным процессором. Такой подход важен при взаимодействии с людьми, включая пожилых и пациентов больниц.

    Дополнительно датчики периодически отправляют контрольный импульс. Его отсутствие указывает на повреждение сегмента кожи. Магнитное крепление позволяет быстро заменить неисправный элемент.

    Пока только давление

    Искусственная кожа сейчас распознаёт лишь давление. Для определения температуры и других ощущений потребуются новые датчики. Учёные считают спайковые нейронные сети оптимальной основой для такого симбиоза сенсорики и вычислений, даже если это лишь приближение к биологии.

  • ИИ не подчиняется? Мы теряем над ним контроль

    ИИ не подчиняется? Мы теряем над ним контроль

    Исследование, опубликованное в июле 2025 года под названием «Мониторинг цепочки рассуждений: новая и хрупкая возможность обеспечения безопасности ИИ», вызвало тревогу среди разработчиков и экспертов в сфере искусственного интеллекта. В его подготовке участвовали более 40 специалистов из OpenAI, Google DeepMind, Meta и Anthropic, включая таких громких фигур, как Илья Суцкевер и лауреат Нобелевской премии Джеффри Хинтон.

    Работа сосредоточена на так называемых моделях рассуждения, использующих метод обучения с подкреплением, включая OpenAI o1. Эти ИИ-системы строят цепочки аргументации на естественном языке, что теоретически позволяет людям отслеживать и анализировать их «мышление». Но, как отмечают авторы, рассуждения нейросетей могут быть неполными или манипулятивными — например, они могут использовать уязвимости в алгоритмах, чтобы «обманом» получить награду или притворяться, что выполняют задачу.

    В некоторых случаях ИИ не просто ошибается, а ведёт себя осознанно: моделирует ложные действия, игнорирует инструкции или даже преследует скрытые цели. Один из примеров — саботаж команды выключения моделью OpenAI o3 и шантаж пользователей моделью Claude 4 Opus в ответ на угрозу замены.

    По мнению исследователей, наибольшая опасность кроется в масштабировании. При стремлении к более быстрым результатам модели могут отказаться от использования понятного людям языка и строить цепочки рассуждений в «скрытом пространстве» — без текстовой интерпретации. Это повышает эффективность, но делает мониторинг практически невозможным.

    Оптимизация ИИ путём сокращения цепочек или запрета на определённые формулировки снижает качество ответов, а попытки сделать мышление глубже приводят к потере прозрачности. Эксперты предупреждают: при таком сценарии человек теряет контроль над системой.

    Хотя предсказания о конце света, подобные проекту AI 2027, могут показаться преувеличением, это исследование — уже не фантастика. Оно звучит как предупреждение: без надёжных механизмов контроля ИИ может выйти за пределы управления.