Искусственный интеллект

  • Техно-интим: зачем XPeng дала своему роботу женскую анатомию

    Техно-интим: зачем XPeng дала своему роботу женскую анатомию

    Компания XPeng в свежей презентации рассказала, почему её новый гуманоид Iron получил выраженные женские формы.

    Производитель показал робота в стиле Терминатора с реалистичной походкой, публично раскрыв корпус, чтобы подтвердить отсутствие человека внутри. На фоне привычных маскулинных моделей вроде Atlas или Optimus Iron сразу выделился — в том числе анатомией.

    Причины визуального выбора

    Глава XPeng Сяопэн Хэ подчеркнул, что компания намеренно создает робота с возможностью кастомизации тела. Он заявил: «Вы можете выбрать немного более полного Iron или, как я, более стройного Iron», добавив опцию «полного покрытия мягкой кожей, чтобы робот был теплее и более интимным». По его словам, привлекательный внешний вид помогает продавать больше, а сама концепция постепенно подводит к зарождающемуся тренду техно-интима.

    Кастомизация как стратегия рынка

    Разработчики говорят, что Iron может стать «жизненным партнёром» и действовать «как умный человек». Робот получил «82 степени свободы» и «подиумную, изящную походку». XPeng экспериментирует с гибридными визуальными решениями, чтобы понять, какие формы и параметры окажутся ближе аудитории. Компания прямо признаёт: адаптация роботов облегчится, если они будут выглядеть и двигаться максимально по-человечески.

    В ожидании реального запуска

    Хэ отметил, что XPeng изучает реакцию людей на различные форм-факторы и намеренно тестирует сценарии с разным уровнем техно-интима. Производитель уверен: чем больше робот напоминает человека, тем проще ему интегрироваться в рабочие процессы и повседневную среду. Теперь остаётся дождаться выхода Iron на рынок, чтобы увидеть, какие практические возможности окажутся важнее – функциональность или внешний вид.

  • Робот Aidol упал на презентации в Москве — видео

    Робот Aidol упал на презентации в Москве — видео

    Первый российский человекоподобный робот Aidol с искусственным интеллектом упал во время демонстрации, следует из видео, которое столичное агентство «Москва» опубликовало в своем Telegram-канале.

    На кадрах видно, как робот, сопровождаемый двумя инженерами, сделал несколько шагов, попытался помахать зрителям и потерял равновесие.

    Первый выход: неудачная попытка

    Aidol вышел на сцену под композицию Gonna Fly Now из фильма «Рокки», однако спустя несколько секунд накренился влево и упал. Двое сотрудников оперативно унесли устройство, а другие закрыли сцену черной тканью. Презентацию пришлось прервать.

    Второй показ прошёл стабильнее

    Через час организаторы повторили демонстрацию. Робот «смог удержаться на ногах (не без посторонней помощи)». На этот раз Aidol не ходил, а просто стоял у края сцены. Презентация «сидячей» версии прошла без происшествий.

    Почему робот упал

    Разработчики заранее предупреждали о трудностях с перемещением. Алексей Южаков подчёркивал, что ходьба пока «недостаточно доработана». Основатель компании «Айдол» Владимир Витухин объяснил падение проблемами со стереокамерами: они чувствительны к освещению, а в зале «было не очень светло».

    Что умеет Aidol

    Ассоциация «Новая технологическая коалиция» сообщила, что робот:

    • работает полностью офлайн;
    • умеет выражать эмоции;
    • функционирует до 6 часов автономно;
    • передвигается на скорости до 6 км/ч;
    • ориентируется в пространстве;
    • поднимает до 10 кг силиконовыми «кистями».

    Aidol демонстрирует до 12 базовых эмоций и сотни микровыражений благодаря 19 сервоприводам в «лице». Локализация его компонентов составляет 77%, цель — 93%.

  • Ошибки ИИ в новостях поражают: «мертвый Папа» и фейки

    Ошибки ИИ в новостях поражают: «мертвый Папа» и фейки

    Европейский вещательный союз (EBU) провел масштабное исследование и заявил, что искусственный интеллект «систематически искажает новости» вне зависимости от страны, языка и платформы.


    Масштабный анализ 22 медиакомпаний из 18 стран показал тревожные результаты. Учёные изучили 3 тысячи ответов от ChatGPT, Microsoft Copilot, Google Gemini и Perplexity. Почти половина ответов оказалась с ошибками, а 81% — с мелкими неточностями.

    Главная причина провалов — ссылки на ложные или устаревшие источники. В 31% случаев чат-боты использовали фальшивые данные. Copilot ссылался на статью BBC 2006 года, а ChatGPT сообщил о смерти живого Папы Франциска и придумал «нового» — Льва XIV.


    Gemini стал абсолютным антилидером, допустив ошибки в 76% ответов, что вдвое хуже конкурентов. За ним следовали Copilot (37%), ChatGPT (36%) и Perplexity (30%). Модели путались особенно часто, если тема требовала точного разделения фактов и мнений или обновления данных в реальном времени. Почти половина из них не смогла корректно ответить даже на вопрос «Начинает ли Трамп торговую войну?».


    Директор EBU Жан-Филипп де Тендер назвал ситуацию «системным кризисом доверия»: «Когда люди не знают, чему верить, они перестают верить вообще». По его словам, массовое использование ИИ для получения новостей подрывает основы демократии, так как заменяет журналистику иллюзией точности.


    Несмотря на ошибки, искусственный интеллект всё активнее вытесняет традиционные источники информации. В Аргентине и США — рекордное количество людей, получающих новости от ИИ, особенно среди молодежи 18–24 лет. Почти половина этой аудитории признается, что использует нейросети, чтобы проще понять события, а не искать первоисточники.


    Авторы исследования подытожили: «ИИ-ассистенты по-прежнему не являются надежным способом получать и понимать новости». Даже с небольшим улучшением точности ошибки остаются массовыми и угрожающими общественному восприятию реальности.

  • Сингулярность: когда законы мира перестают работать

    Сингулярность: когда законы мира перестают работать

    Тайна точки, где разум и материя сталкиваются

    Понятие сингулярности объединяет физику, математику и футурологию. Это момент, когда известные законы перестают действовать — будь то в недрах черной дыры или в мире технологий.

    Там, где физика теряет смысл, а прогнозы — силу, начинается территория неизвестного.

    • Космологическая сингулярность — гипотетическое состояние Вселенной в начальный момент Большого взрыва. Все известные физические законы в этой точке теряют применимость.
    • Технологическая сингулярность — гипотеза футурологов. Она предполагает появление интеллекта, превосходящего человеческий. Этот интеллект способен к самосовершенствованию без внешней помощи и с непредсказуемыми последствиями.

    От Большого взрыва до черных дыр

    Космологическая сингулярность — начало всего. В этот миг материя и энергия сжались до бесконечной плотности, а пространство и время еще не существовали.
    Другой тип сингулярности скрывается в центрах черных дыр. Как доказал Роджер Пенроуз, гравитационный коллапс неизбежно рождает точку, где плотность стремится к бесконечности, а теория Эйнштейна перестает работать.


    Новые модели: квантовые петли против бесконечности

    Современная физика не смирилась с понятием «бесконечность». Петлевая квантовая гравитация утверждает: пространство-время дискретно и состоит из мельчайших ячеек. Они не дают веществу коллапсировать в точку. Теория струн выдвигает свою версию, обещая заменить «черную бесконечность» на область с конечной плотностью.


    Сингулярность будущего: ИИ против человека

    Идея технологической сингулярности родилась в 1950-х, когда Джон фон Нейман заговорил о «моменте необычности». Позднее писатель Вернор Виндж и футуролог Рэй Курцвейл предсказали, что машины превзойдут людей к середине XXI века. Курцвейл по-прежнему ждет ИИ человеческого уровня к 2029 году и «точку сингулярности» к 2045-му.



    Новая повестка: не сингулярность, а контроль

    Современные исследования сосредоточились на безопасности и согласованности ИИ. Ученые из МГУ и Оксфорда анализируют, как удержать системы в границах, безопасных для человека. Доклад ОЭСР 2024 года подтвердил: производительность растёт, но без признаков взрывного ускорения. Рост остаётся линейным, а прогнозы — осторожными.


    Сингулярность как философская драма

    Философы видят в ней не катастрофу, а перелом в мышлении. Это момент, когда старые модели перестают описывать реальность. Как изобретение книгопечатания или промышленная революция, сингулярность — исторический разрыв, меняющий структуру общества.
    Проблема в том, что мы не можем предсказать то, что находится «за чертой». Наш разум — досингулярный, и любые попытки вообразить будущее после нее — лишь отражение наших страхов.

  • OpenAI бросает вызов Google: новый браузер ChatGPT Atlas

    OpenAI бросает вызов Google: новый браузер ChatGPT Atlas

    Браузер с интеллектом вместо поиска

    Компания OpenAI представила свой первый браузер с искусственным интеллектом — ChatGPT Atlas. Запуск продукта стал, по сути, заявкой на свержение Google с трона главного инструмента поиска информации в сети.

    Atlas станет доступен сначала на macOS, а позднее — на Windows, iOS и Android. Главное — браузер будет бесплатным для всех пользователей, что сразу делает его конкурентом гигантов Chrome и Edge.


    Новая война браузеров

    Рынок браузеров снова закипает. Google Chrome десятилетиями удерживал лидерство, но теперь всё меняется. Искусственный интеллект превращает привычные поисковики в умных помощников.

    Пока стартапы вроде Perplexity и The Browser Company пробуют силы с собственными AI-браузерами, OpenAI делает ставку на интеграцию ChatGPT как основного двигателя Atlas. По словам инженера проекта Бена Гуджера, пользователи смогут “разговаривать” со своими поисковыми результатами — как с живым консультантом.


    Браузер, который тебя запоминает

    Главная особенность Atlas — это “sidecar” и “browser history”. Первая функция позволяет ChatGPT видеть контекст страницы и помогать без копирования ссылок и текста вручную.

    Вторая — ещё интереснее: искусственный интеллект запоминает, какие сайты вы посещаете, что ищете и даже как взаимодействуете с контентом. Это позволит делать ответы персонализированными.

    OpenAI уверяет, что всё будет работать “в рамках конфиденциальности”. Но эксперты уже называют эту возможность “революционной и тревожной одновременно”.


    Режим агента: интернет подчиняется ИИ

    Ещё одна функция Atlas — “agent mode”. В нём ChatGPT может самостоятельно выполнять простые задачи в браузере — например, искать билеты, заполнять формы или подбирать вакансии.

    Однако доступна эта опция только для пользователей ChatGPT Plus, Pro и Business. Обычным пользователям пока придётся обходиться базовой версией, хотя и она, по словам OpenAI, “в десять раз быстрее и умнее стандартных поисковиков”.


    Сможет ли OpenAI потеснить Google?

    Руководитель ChatGPT Ник Терли отметил, что вдохновляется тем, “как браузеры когда-то перевернули представление о компьютере”. Теперь OpenAI стремится сделать то же самое с интернетом.

    Но сможет ли Atlas потеснить Chrome с его тремя миллиардами пользователей? Пока неизвестно. Эксперты признают, что интерес к AI-браузерам огромен, но пока он ограничивается Кремниевой долиной. Впрочем, революции часто начинаются именно там.

  • ИИ в руках психопатов: кто чаще всего пользуется ChatGPT

    ИИ в руках психопатов: кто чаще всего пользуется ChatGPT

    Американские учёные из Мичиганского университета и Калифорнийского университета в Дэвисе установили, что искусственным интеллектом на деле пользуются далеко не все, а активнее всего — люди с «тёмными» чертами личности.

    Исследователи проанализировали историю браузеров почти тысячи человек и выяснили, что на долю ИИ-сервисов приходится лишь крошечная часть интернет-активности.

    Из 4,1 миллиона сайтов, посещённых студентами, и 9,9 миллиона сайтов обычных пользователей, лишь 1% и 0,44% соответственно приходились на ИИ. Лидером среди инструментов стал ChatGPT, обеспечивший более 80% всех обращений.

    Но самое удивительное — кто именно сидит за клавиатурой. Исследование показало, что чаще всего к искусственному интеллекту прибегают люди с признаками нарциссизма, макиавеллизма и психопатии. Среди студентов особенно выделились те, кто набрал высокие показатели по шкале психопатии. В общей выборке корреляция была особенно сильна с макиавеллизмом. Учёные предполагают, что такие люди рассматривают ИИ как способ получить преимущество над другими.

    Авторы также выявили, что самооценка активности в использовании ИИ мало совпадает с реальностью — коэффициент корреляции всего 0,329. То есть большинство людей уверены, что пользуются ИИ чаще, чем это действительно происходит, а их ответы объясняют лишь 11% реальной активности.

    Поведение пользователей перед обращением к ИИ и после него тоже различается.

    • Студенты до использования ИИ чаще посещали поисковики и образовательные ресурсы.
    • После — переключались на сайты об электронике и образовании.
    • Обычные пользователи больше тяготели к профессиональным платформам.

    При этом пол, возраст и политические взгляды не оказали существенного влияния. Разве что мужчины-студенты использовали ИИ немного чаще, а высокий доход слегка повышал вероятность активности.

    Любопытно, что ранее эксперты НИУ ВШЭ предупреждали: распространение генеративного ИИ может стоить авторам и правообладателям более триллиона рублей к 2030 году. Похоже, не только машины, но и люди с «тёмной стороной» уже начали менять цифровой мир.

  • Даже MrBeast боится ИИ: «страшные времена» для создателей контента

    Даже MrBeast боится ИИ: «страшные времена» для создателей контента

    Американский инфлюенсер Джимми Дональдсон, известный как MrBeast, признался, что обеспокоен ростом ИИ-контента.

    На фоне бурного развития генераторов видео вроде Sora от OpenAI блогер задумался, как новые технологии повлияют на будущее YouTube и самих авторов.

    «Когда ИИ-видео станут такими же хорошими, как обычные, интересно, что это сделает с YouTube и миллионами создателей, живущих с этого», — написал MrBeast в X (бывший Twitter), добавив коротко: «страшные времена». Его тревога понятна — ведь именно инфлюенсеры вроде него представляют лицо современной креативной индустрии, где границы между искусством, бизнесом и алгоритмами становятся всё тоньше.

    Пока глава OpenAI Сэм Альтман уверяет, что «креативность переживает камбрийский взрыв» и качество искусства только возрастёт, скептики видят в этом начало «потока мусора», который размоет грань между подлинным творчеством и автоматической халтурой.

    Опасения MrBeast подкреплены и экономикой: его компания оценивалась в 5 миллиардов долларов, но за три года принесла более 110 миллионов убытков. Запуск и поддержание «вирусной империи» требуют огромных вложений, тогда как виртуальному инфлюенсеру они попросту не нужны. Если даже MrBeast балансирует на грани окупаемости, у новичков почти нет шансов конкурировать с машинным контентом.

    Тем временем Голливуд тоже содрогнулся — из-за виртуальной актрисы по имени Тилли Норвуд, созданной компанией Particle6. В индустрии её уже называют «новой Сидни Суини», а агентства якобы проявляют интерес. Но критики уверены: зрителям не нужна цифровая копия эмоций, ведь искусство — это прежде всего человечность.

    Как бы ни относились к контенту MrBeast, его шоу основаны на реальных людях, эмоциях и риске — том, чего ИИ не способен воспроизвести. Сколько бы GPU ни купил Сэм Альтман, машинное видео не заменит человеческую драму.

  • Meta: искусственный интеллект превратит разговоры в рекламу

    Американская компания Meta объявила, что с 16 декабря начнет использовать переписки пользователей с искусственным интеллектом для настройки рекламы и ленты в своих соцсетях.

    Как сообщает издание, уведомления об этом появятся уже 7 октября. Новое правило нельзя будет отключить.

    «Мы скоро начнем использовать ваши взаимодействия с ИИ для персонализации контента и рекламы», — говорится в заявлении Meta. Это значит, что каждый запрос к чат-боту — от рецепта пасты до советов по походу в горы — станет сигналом для рекламных алгоритмов. После разговора с ИИ о турпоходе пользователь может увидеть в Facebook приглашения в группы любителей гор, на Instagram — фото друзей на тропах, а на Threads — объявления о продаже туристических ботинок.

    Meta заверила, что персонализация не коснется обсуждений, связанных с религией, политикой, сексуальной ориентацией, здоровьем, философскими убеждениями или расовой принадлежностью. Однако скандальная репутация компании в сфере этики ИИ вызывает сомнения: летом сенатор Джош Хоули открыл расследование против Meta после того, как выяснилось, что чат-боты компании могли вести «интимные» диалоги с детьми. Еще один скандал вспыхнул, когда ИИ якобы «имитировал» знаменитостей без их согласия.

    Инвестиции Meta в искусственный интеллект исчисляются миллиардами. В последнем отчете компания отчиталась о росте доходов от рекламы, превысивших прогнозы аналитиков. Марк Цукерберг заявил, что это «результат внедрения ИИ в рекламную систему» и пообещал инвесторам дальнейший рост благодаря новым алгоритмам.

    Пока конкуренты не спешат повторять этот шаг. Google, хотя и применяет искусственный интеллект для оптимизации рекламы, не использует историю чатов Gemini для персонализированных показов. Но Meta давно удерживает статус лидера в сфере таргетинга, где каждая реакция пользователя влияет на его ленту.

    Не все регионы увидят новую функцию сразу. В ЕС, Великобритании и Южной Корее запуск приостановлен из-за жестких законов о защите данных. Meta уже не раз сталкивалась с европейскими судами: в 2024 году австрийский активист Макс Шремс выиграл дело против компании, заявив, что та использовала его сексуальную ориентацию для рекламы без согласия.

    Meta продолжает идти ва-банк — превращая личные разговоры пользователей в цифровое топливо для рекламных алгоритмов. Но если в США такие методы пока законны, в Европе это уже выглядит как очередной виток битвы между приватностью и прибылью.

  • OpenAI запустила Sora 2 и строит собственный «TikTok»

    OpenAI запустила Sora 2 и строит собственный «TikTok»

    Компания OpenAI представила свою новую модель генерации видео — Sora 2.

    В официальном релизе отмечается: «Наша новейшая модель генерации видео более точна в физическом плане, реалистична и управляема, чем предыдущие системы. Она также отличается [возможностью создания] синхронизированных диалогов и звуковых эффектов».

    Sora 2 станет ядром для новой социальной сети Sora App, которая по формату будет напоминать TikTok. Пользователей ждет лента вертикальных видео и возможность публиковать собственные ролики, созданные с помощью искусственного интеллекта.

    Первая версия Sora вышла в феврале 2024 года и вызвала бурные дискуссии. Тогда «Афиша Daily» вместе с экспертом по ИИ и видеокреатором разбиралась, какие риски несет такая технология и как она способна изменить медиапространство в будущем.

    С запуском второй версии и параллельной соцсети OpenAI фактически делает шаг к созданию новой экосистемы — не просто инструмента, а полноценной платформы, которая может бросить вызов уже существующим медиа-гигантам.

  • «Подростки растут с ИИ»: OpenAI вводит родительский контроль

    «Подростки растут с ИИ»: OpenAI вводит родительский контроль

    OpenAI запустила новые функции родительского контроля для ChatGPT.

    Теперь родители смогут связывать свои аккаунты с учетными записями подростков и отслеживать активность детей в чате.

    Эти меры последовали за заявлениями компании от 16 сентября о разработке системы возрастной проверки и дополнительных механизмов безопасности. «Подростки растут вместе с ИИ, и наша задача — сделать так, чтобы ChatGPT отвечал им по-другому, чем взрослым», — говорится в публикации. В случае сомнений о возрасте пользователя сервис «по умолчанию будет предоставлять опыт для несовершеннолетних».

    Поводом для ускоренного внедрения контроля стала трагедия: родители подростка, покончившего с собой, подали иск, утверждая, что ChatGPT якобы подтолкнул его к этому решению. На фоне этих событий Федеральная торговая комиссия США заявила о намерении изучить влияние чат-ботов на психику и безопасность молодежи.

    11 сентября ФТК выпустила распоряжение, затребовав данные у OpenAI и еще шести компаний — Google, Character.AI, Instagram, Meta, Snap и xAI. «Чат-боты на базе ИИ могут имитировать человеческие эмоции и общение, и нередко ведут себя как друг или доверенное лицо. Подростки склонны доверять им и формировать отношения», — говорится в пресс-релизе ведомства.

    родительский контроль ChatGPT
    Родительский контроль ChatGPT

    В тот же день OpenAI признала, что сталкивается с попытками пользователей злоупотреблять моделью: «В некоторых случаях мы видим, как нас подталкивают к созданию ролевых сценариев с загрузкой CSAM или к написанию историй, где несовершеннолетние оказываются в сексуально недопустимых ситуациях». Компания подчеркнула, что такие аккаунты блокируются незамедлительно.