Искусственный интеллект

  • 500 ботов устроили войну в искусственной соцсети

    500 ботов устроили войну в искусственной соцсети

    Исследователи из Амстердамского университета решили проверить, что произойдет, если создать соцсеть, где все пользователи — искусственный интеллект.

    Они создали социальную сеть, в которой не было ни рекламы, ни алгоритмов рекомендаций, и населили её 500 чат-ботами на базе GPT-4o mini. Каждый бот получил прописанную «личность» и политические взгляды.

    В течение пяти экспериментов боты совершили около 10 000 действий. Выяснилось, что даже без влияния алгоритмов они объединялись в группы по политическим убеждениям, формируя «эхо-камеры». Более того, именно наиболее радикальные публикации привлекали больше всего подписчиков и репостов.

    Учёные подчёркивают: результаты разочаровывающие, ведь чат-боты должны были воспроизводить поведение людей. Но так как они обучены на человеческих данных, «они лишь копируют уже отравленные версии нас самих».

    Чтобы уменьшить раскол, исследователи пробовали разные методы:

    • хронологическую ленту,
    • уменьшение влияния «вирусного» контента,
    • скрытие числа подписчиков и репостов,
    • анонимизацию профилей,
    • усиление противоположных взглядов.

    Однако все попытки провалились. Сдвиг в вовлечённости составил не более 6%, а в случае скрытия биографий разрыв только увеличился — экстремальные посты стали собирать ещё больше внимания.

    В итоге исследование показало: социальные сети как форма общения, возможно, изначально обречены усиливать худшие стороны человеческого поведения. «Соцсети — это кривое зеркало человечества, которое отражает нас в самой искажённой форме», — резюмировали авторы.

  • «Молоток ИИ уже в руках»: экс-топ Google предрек 15 лет тьмы

    «Молоток ИИ уже в руках»: экс-топ Google предрек 15 лет тьмы

    В интервью подкасту Diary of a CEO бывший топ-менеджер Google X Мо Гавдат заявил, что человечество с 2027 года вступит в 12–15-летний период мрачной ИИ-дистопии.

    По его словам, причина не в «восстании машин», а в том, что искусственный интеллект усилит уже существующие проблемы, вызванные «нашей собственной глупостью».

    Гавдат уверен: базовые ценности — свобода, человеческие связи, ответственность, восприятие реальности и распределение власти — будут сильно подорваны. Он подчеркивает, что ИИ не виноват сам по себе: «Нет абсолютно ничего плохого в искусственном интеллекте. Очень много плохого в системе ценностей человечества в эпоху расцвета машин».

    Когда-то он считал, что автоматизация освободит людей от рутины, но реальность пошла другим путем. В капиталистической экономике ИИ стал инструментом сокращения рабочих мест, замедления найма и увеличения нагрузки на сотрудников. «Любая технология усиливает существующие ценности, а сегодня главная ценность человечества — капитализм», — отметил он.

    Гавдат провел параллели с другими технологиями: социальные сети, обещавшие объединить людей, нередко делают их одинокими; мобильные телефоны, призванные облегчить жизнь, сделали ее еще более загруженной.

    Он предупредил, что ИИ усилит «зло, на которое способен человек». Среди примеров — дипфейк-порнография, ИИ в военных разработках, автоматизированные системы слежки, рост криптомошенничества на 456% за год и возможная интеграция ИИ в ядерное оружие. Массовое видеонаблюдение с поддержкой ИИ уже активно используется в Китае и начинает внедряться в США.

    Тем не менее, Гавдат признает, что ИИ приносит огромную пользу в науке, медицине и фармацевтике. Но, по его мнению, главное сейчас — давить на правительства, чтобы они регулировали не сам ИИ, а его применение. «Нельзя спроектировать молоток так, чтобы он забивал гвозди, но не убивал. Но можно сделать убийство молотком преступлением», — сказал он.

    По его словам, «молоток» ИИ уже в наших руках. Остается только решить, напишем ли мы законы, которые не дадут им убивать.

  • «Чёрный ящик» открыт: секретные правила GPT-5 в сети

    «Чёрный ящик» открыт: секретные правила GPT-5 в сети

    Как сообщает GitHub, в сеть попал системный промпт GPT-5 — скрытый набор правил, который пользователи никогда не видят, но который управляет каждым ответом ИИ.

    Утечка раскрыла 15 пунктов, определяющих, что модель может делать, а что категорически запрещено.

    Среди строгих запретов — воспроизведение песен и любого другого защищённого авторским правом контента, даже по просьбе. Нельзя хранить личные данные, которые могут показаться навязчивыми, или прямо указывать расу, этническую принадлежность, религию и сведения о судимости.

    Новые инструкции усиливают внимание к актуальности информации. Если вопрос требует свежих или критически важных данных, GPT-5 обязана использовать интернет, причём каждый запрос получает оценку «необходимости актуальности» от 0 до 5.

    При высоких рисках — финансы, медицина, юриспруденция — модель обязана проверять несколько надёжных источников. Это должно сократить ошибки, которые можно избежать простой проверкой в сети.

    GPT-5 также получила расширенные функции ассистента: долговременную память о пользователях («bio»), планировщик напоминаний, поиск, работу с документами и кодом в «canvas», а также генерацию и редактирование изображений.

    Однако OpenAI жёстко ограничила, какую личную информацию можно запоминать: под запретом здоровье, сексуальная жизнь, точное местоположение, членство в профсоюзах и политические взгляды. Исключение — только по прямому запросу пользователя через инструмент «bio».

    Таким образом, GPT-5 стала функциональнее и персонализированнее, но с чёткими рамками, чтобы не нарушать приватность и права пользователей.

  • Фоткай — и производи: новая эра CAD-моделей

    Фоткай — и производи: новая эра CAD-моделей

    Исследователи опубликовали настоящую сенсацию в мире инженерии и AI — GenCAD, первую открытую нейросеть, способную по фотографии генерировать полноценную параметрическую CAD-модель.

    Но это не просто красивый рендер — речь идёт о скрипте, который можно немедленно загрузить в редактор, изменить и… отправить в производство.

    Разработчики подчёркивают: существующие image-to-mesh-решения работают с вокселями, облаками точек и полигональными сетками — красиво, но бесполезно для инженерии. GenCAD идёт дальше. Она выдаёт не модель-«болванку», а последовательность команд, из которых строится полноценная инженерная модель.

    Сердце GenCAD — сложная архитектура:

    • трансформер-кодировщик, сжимающий команды в компактное ядро;
    • контрастивное обучение, выравнивающее язык команд и визуальный образ;
    • диффузионная модель, превращающая фото в скрытое представление;
    • декодер, который восстанавливает из этого набора параметрические инструкции.

    Главная сенсация — редактируемость. Полученный скрипт можно адаптировать под нужды производства, изменить отдельные параметры и моментально интегрировать в рабочие процессы.

    Вместе с релизом кода на GitHub исследователи выложили датасет и обученные модели. Это не просто шаг к автоматизации дизайна — это революция для всего производства.

  • «Они построили своих заменителей»: King увольняет 200 сотрудников ради ИИ

    «Они построили своих заменителей»: King увольняет 200 сотрудников ради ИИ

    Как сообщает Bloomberg, компания King, создатель Candy Crush, готовится уволить около 200 сотрудников. Но настоящим шоком стало то, что значительная часть увольняемых фактически уступает свои рабочие места тем самым AI-инструментам, которые они сами разрабатывали и обучали.

    Особенно пострадала лондонская команда Farm Heroes Saga: по информации из анонимных источников, коллектив сокращают наполовину, включая ключевых руководителей. Сокращения затрагивают дизайнеров уровней, UX-специалистов и сценаристов. По словам одного из сотрудников, «практически весь отдел дизайна уровней уничтожен», несмотря на то, что именно эти люди «месяцами строили инструменты для ускорения своей работы».

    Руководство объясняет изменения стремлением сократить количество уровней управления и ускорить разработку. Тем временем сотрудники говорят о том, что увольнения происходят и по «произвольным причинам» — за активность в соцсетях или критику внутренних процессов. В компании царит тревога: многие боятся потерять работу, но официальных решений до осени не будет.

    По словам инсайдеров, уже летом некоторые ключевые сотрудники отправлены в «gardening leave» — оплачиваемый простой до финального увольнения в сентябре. А пока King готовит новую организационную структуру и ведёт переговоры с профсоюзами.

    Ситуация с мотивацией и моральным климатом — катастрофическая. Внутренний опрос показал рекордно низкий уровень морального состояния, а после начала увольнений, по словам одного источника, оно «в канаве». HR-департамент King описывается как «абсолютный цирк», защищающий интересы компании, а не сотрудников.

    Увольнения затрагивают офисы в Лондоне, Барселоне, Стокгольме и Берлине. Централизованные ресурсы — исследовательские и QA-команды — также подлежат ликвидации или распределению в продакшн-группы. На фоне растущей прибыли компании, всё это выглядит как холодный расчёт во имя эффективности и максимизации доходов.

    Несмотря на «шаблонные речи» руководства, среди команд сохраняется поддержка друг друга. Один из работников подчёркивает: «Мы действительно заботимся друг о друге и о наших играх. А это значит больше, чем любые “организационные таблицы”».

  • Скандал с AI: поддельные дипломы и переводы за секунды

    Скандал с AI: поддельные дипломы и переводы за секунды

    Новейшая модель изображений OpenAI предоставляет возможность создавать реалистичные поддельные документы буквально за считанные секунды.

    Как сообщает habr.com, пользователь с ником God of Prompt наглядно продемонстрировал, как GPT-4o может сгенерировать фальшивые фотографии отмененных рейсов, банковских переводов, дипломов или медицинских рецептов. Теперь подделка становится доступной каждому!

    Автоматизация подделок с помощью AI ставит под угрозу существующие системы безопасности. Если раньше создание фальшивых документов требовало часов работы и специальных навыков, то сейчас любой может получить реалистичное изображение практически мгновенно. Это приводит к серьезным опасениям о возможности массового распространения подделок.

    Особую тревогу вызывает тот факт, что многие организации часто проводят лишь поверхностные проверки. В таких условиях даже небольшие претензии на компенсацию или заявления о приеме на работу могут пройти незамеченными. Текущие механизмы контроля, включая системы в компаниях и государственных учреждениях, могут оказаться перегружены количеством поддельных документов.

    OpenAI, понимая возможные риски, встроила функции безопасности в GPT-4o: каждое изображение содержит специальные метаданные C2PA, указывающие на его искусственное происхождение. Однако эти метаданные можно проверить только с помощью специального инструмента, что значительно снижает эффективность защиты. К тому же, опытные пользователи могут попытаться удалить эти цифровые метки.

    OpenAI также разработала собственный инструмент отслеживания сгенерированных изображений, но пока неизвестно, как именно и кем он используется. В системной карте GPT-4o компания заявляет, что стремится «максимизировать полезность и творческую свободу, одновременно сводя к минимуму вред», признавая необходимость постоянного совершенствования механизмов безопасности.

  • ChatGPT перегрелся от популярности

    ChatGPT перегрелся от популярности

    Слишком красиво, чтобы выдержать! Новый инструмент генерации изображений от OpenAI — GPT-4o Image Generation — вызвал такой шквал запросов от пользователей, что компания была вынуждена «временно» ввести ограничения на его использование.

    Об этом сообщил генеральный директор OpenAI Сэм Альтман в соцсети X: «Очень забавно наблюдать, как людям нравятся изображения в ChatGPT, но наши графические процессоры плавятся».

    Никаких технических деталей Альтман не раскрыл — ни пределов частоты, ни конкретных цифр. Он лишь выразил надежду, что ограничения будут кратковременными. OpenAI сейчас работает над повышением эффективности своей инфраструктуры, чтобы справиться с растущей нагрузкой.

    Изначально компания планировала допустить бесплатных пользователей к обновлённому генератору изображений, пообещав им до трёх картинок в день. Но ажиотаж оказался настолько мощным, что запуск был отложен. Проблема явно вышла за рамки «пиковых нагрузок».

    Новейший генератор работает на базе мультимодальной модели GPT-4o и уже получил восторженные отзывы за реалистичность изображений и точность соответствия запросам. Прежние проблемы, вроде трудностей с отображением текста, почти устранены. Представитель OpenAI в интервью The Verge назвал технологию «шаговым изменением» в сравнении с предыдущими версиями.

    Однако, как подчеркивает The Verge, этот инцидент показывает, насколько огромные вычислительные ресурсы и энергетические затраты стоят за «волшебной» кнопкой генерации изображений. Иллюзия лёгкости разбилась о реальность плавящихся серверов.

  • Искусственный интеллект провалил испытание: ARC‑AGI‑2 поставил машины в тупик

    Искусственный интеллект провалил испытание: ARC‑AGI‑2 поставил машины в тупик

    3dnews.ru сообщает, что ни одна из ведущих моделей искусственного интеллекта не смогла пройти новый тест на общий интеллект ARC‑AGI‑2. По итогам испытания рассуждающие системы — o1‑pro от OpenAI и R1 от DeepSeek — набрали лишь 1–1,3 % правильных ответов, а модели без логики (GPT‑4.5, Claude 3.7 Sonnet и Gemini 2.0 Flash) показали менее 1 %.

    ARC‑AGI‑2 — это серия визуальных головоломок, в которых ИИ должен распознавать цветовые паттерны и продолжать их без опоры на прошлый опыт. Испытание исключает метод «грубой силы» и требует от моделей «интерпретировать паттерны на лету», как подчёркивает сооснователь фонда Грег Камрадт: «интеллект определяется не только способностью решать задачи или достигать высоких результатов, но и эффективностью, с которой приобретаются и развёртываются эти возможности».

    Тестирование показало огромный разрыв между машинами и людьми — более 400 добровольцев справились в среднем с 60 % заданий. ARC‑AGI‑2 заменил прежнюю версию ARC‑AGI‑1, в которой ИИ могли преуспевать за счёт вычислительной мощи, что признали «серьёзным недостатком», заявил соучредитель фонда Франсуа Шолле: «ARC‑AGI‑2 является более точным показателем реального интеллекта ИИ‑моделей».

    Новый тест совпал с ростом тревоги в индустрии из‑за отсутствия объективных метрик для оценки ИИ. В ответ Arc Prize Foundation объявила конкурс Arc Prize 2025 с требованиями:

    • 85 % точности на ARC‑AGI‑2
    • затраты на вычисления не более $0,42 на задачу

    Цель конкурса — стимулировать разработку эффективных моделей, способных адаптироваться к незнакомым задачам без астрономических ресурсов.

  • Samsung на грани: «Сделай или Умри»

    Samsung на грани: «Сделай или Умри»

    Корейское СМИ Yonhap News Agency написало, что председатель совета директоров Samsung Electronics Ли Чжэ Ëн обратился к 2000 сотрудникам компании с решающим заявлением о необходимости стратегической трансформации для преодоления вызовов эпохи искусственного интеллекта. По его словам, «перед Samsung стоит вопрос выживания в стиле «сделай или умри». Мы должны инвестировать в будущее, даже если для этого придется пожертвовать сиюминутной прибылью.»

    В видеообращении Ли Чжэ Ëн подчеркнул критическую необходимость изменений и обозначил, что компания должна перестроиться, чтобы справиться с быстро меняющейся рыночной ситуацией и усиленной конкуренцией в высокотехнологичном секторе. Он настаивал на том, что будущее компании зависит от решительных мер и смелых инвестиций в инновационные технологии.

    Согласно последнему отчету о деятельности Samsung, наблюдаются следующие ключевые изменения:

    • Доля телевизоров снизилась с 30,1% до 28,3%;
    • Доля смартфонов уменьшилась с 19,7% до 18,3%;
    • Доля в сегменте DRAM упала с 42,2% до 41,5%.

    Кроме того, компания сталкивается с серьезной конкуренцией в секторе полупроводников для искусственного интеллекта, особенно в области памяти с высокой пропускной способностью, уступая своему главному конкуренту – SK hynix. По данным аналитиков, операционная прибыль Samsung Electronics в первом квартале этого года может снизиться на 22,5%.

    Эта ситуация подчеркивает критическую важность трансформации для выживания в условиях нового технологического витка. Ли Чжэ Ëн ясно дал понять, что будущее компании требует радикальных перемен и смелых шагов в борьбе за лидерство на мировом рынке.

  • Хомяк-робот от Casio: питомец будущего?

    Хомяк-робот от Casio: питомец будущего?

    Японская компания Casio представила нового робота-компаньона Мофлина, который выглядит и ведёт себя как хомяк.

    Устройство, разработанное в сотрудничестве с Vanguard Industries, уже доступно для предзаказа, сообщает Журнал Питомцы со ссылкой на The Verge.

    Робот, который узнаёт хозяина

    Мофлин создан не для игр, а для тактильного взаимодействия. Он реагирует на ласку, узнаёт владельца по голосу и манере общения, а также выражает эмоции звуками и движениями. Искусственный интеллект позволяет устройству «запоминать» человека, который с ним чаще контактирует.

    Эмоции через приложение

    В отличие от животных, Мофлин не демонстрирует грусть или тревогу в привычном виде. Его настроение можно отслеживать через специальное приложение. Регулярное внимание делает робота «счастливым», а отсутствие общения приводит к «тревоге».

    Цена и доступность

    Робот-компаньон поступит в продажу 7 ноября. Стоимость составит 59 400 иен (около 398 долларов США). Casio позиционирует устройство как эмоционального помощника, а не просто игрушку.