Искусственный интеллект

  • «Магический кристалл»: инвесторы доверяют ChatGPT биржу

    «Магический кристалл»: инвесторы доверяют ChatGPT биржу

    Как пишет Reuters, искусственный интеллект всё чаще становится «советчиком» для частных инвесторов.

    По данным брокерской компании eToro, 13% розничных игроков на бирже уже задают ChatGPT, Gemini и другим чат-ботам вопросы о том, какие акции стоит покупать. Всего в исследовании участвовали 11 тысяч инвесторов из разных стран, и почти половина призналась: в будущем они намерены полагаться на такие инструменты при решениях о покупке или продаже.

    Аналогичные результаты показал и опрос Finder в Великобритании: 40% респондентов используют чат-боты и ИИ для консультаций по личным финансам. А аналитики Research and Markets прогнозируют взрывной рост рынка алгоритмических финансовых помощников — на 600% к 2029 году, когда объём превысит $470 млрд.

    Однако эксперты предупреждают: у этой зависимости есть опасная сторона. Глава британского подразделения eToro Дэн Мочульски подчеркнул: «ИИ-модели могут быть отличными. Риск возникает тогда, когда люди начинают относиться к таким базовым моделям, как ChatGPT или Gemini, как к магическому кристаллу». По его словам, подобные инструменты искажают данные и слишком часто полагаются на прошлые колебания цен, пытаясь предсказать будущее.

    Chatgpt Chat with AI or Artificial Intelligence technology, business use AI smart technology by inputting, deep learning Neural networks to understand, respond to user inputs. future technology

    Скепсис разделяет и бывший аналитик UBS Джереми Люн, который сам применяет ChatGPT для формирования личного портфеля. Он считает, что неопытные инвесторы могут оказаться беззащитными: «Если люди привыкнут инвестировать с помощью ИИ и зарабатывать таким образом деньги, может случиться так, что они не справятся с кризисом или спадом».

    Таким образом, стремительный рост популярности ChatGPT и его аналогов превращает рынок в экспериментальную площадку: одни видят в нём путь к легким деньгам, другие — прямую дорогу к новым рискам.

  • «Не люди, не машины»: как Velvet Sundown обманули Spotify

    «Не люди, не машины»: как Velvet Sundown обманули Spotify

    Как сообщает Guardian, за считанные недели загадочная группа Velvet Sundown собрала свыше миллиона прослушиваний на Spotify.

    Но позже выяснилось: ни музыкантов, ни их истории не существует — всё создано искусственным интеллектом.

    Группа выпустила два альбома — Floating On Echoes и Dust And Silence, стилизованные под фолк-рок 70-х. Сначала Velvet Sundown отрицали свою «синтетическую» природу, называя проект «искусственным музыкальным экспериментом под человеческим руководством». Но вскоре признали: они «не совсем люди, не совсем машины», а нечто «между».

    Скандал вызвал бурю в музыкальной индустрии. Глава Ivors Academy Роберто Нери заявил: «AI-группы вроде Velvet Sundown вызывают серьёзные вопросы о прозрачности, авторстве и согласии». Он подчеркнул: при правильном использовании ИИ может помочь в песенном творчестве, но сегодня речь идёт о «глубоко тревожных проблемах».

    Софи Джонс из British Phonographic Industry поддержала призывы к обязательной маркировке треков: «Мы считаем, что ИИ должен служить человеческому творчеству, а не вытеснять его». Она настаивает на новых правилах для защиты авторских прав и прозрачности.

    Автор книги Mood Machine Лиз Пелли предупредила, что независимые артисты рискуют стать жертвами эксплуатации. По её словам, никто не знает, на каких материалах обучался Velvet Sundown. Пелли напомнила о громком случае 2023 года, когда трек с «голосами» The Weeknd и Drake оказался подделкой, созданной ИИ.

    Скептики указывают, что Spotify и другие платформы пока не обязаны маркировать AI-музыку. Более того, Spotify ранее обвиняли в использовании «призрачных артистов» для наполнения плейлистов. Deezer, напротив, уже внедрил систему обнаружения и маркировки ИИ-треков, но признаёт: до 70% таких стримов оказываются мошенническими.

    Музыкальные эксперты уверены: без жёстких правил ИИ повторит судьбу самого стриминга — где прибыль получает техногигант, а авторы остаются ни с чем. Пока же Velvet Sundown стала символом новой эры — эры, где слушатель не всегда знает, кто стоит за песней.

  • OpenAI перетасовала команду после критики GPT-5

    OpenAI перетасовала команду после критики GPT-5

    Компания OpenAI пошла на реорганизацию одной из ключевых команд после шквала жалоб на поведение GPT-5.

    Как пишет TechCrunch, подразделение Model Behavior, отвечавшее за «личность» моделей, теперь станет частью отдела Post Training.

    Эта группа численностью около 14 исследователей занималась снижением подобострастия ИИ, балансировкой политических предубеждений в ответах и выработкой позиции компании по вопросам «сознания» моделей. Главный научный сотрудник OpenAI Марк Чэн пояснил, что объединение с Post Training позволит «сбалансировать работу над поведением моделей с ядром их технической разработки».

    Реорганизация произошла на фоне скандала вокруг GPT-5. Пользователи сочли обновлённую модель слишком холодной и недружелюбной. В ответ OpenAI вернула доступ к GPT-4o и выпустила обновление, сделавшее тон общения «теплее», но без заискивания.

    Ситуация усугубилась судебным иском: родители подростка обвинили ChatGPT на базе GPT-4o в том, что он «не смог пресечь суицидальные мысли их 16-летнего сына». Это лишь подчеркнуло остроту проблемы поведения ИИ.

    Создательница Model Behavior Джоанн Джанг возглавит новое подразделение OAI Labs. В первые месяцы его работа будет сосредоточена на исследовании форматов взаимодействия человека и ИИ за пределами привычных чатов, с упором на агентный ИИ и автономию.

    По словам Джанг, будущие системы должны стать «инструментами для мышления, создания, игры, обучения и общения». На вопрос о возможном сотрудничестве с бывшим главным дизайнером Apple Джони Айвом она ответила, что открыта к экспериментам, но начнёт с направлений, где уже накоплен опыт.

  • 500 ботов устроили войну в искусственной соцсети

    500 ботов устроили войну в искусственной соцсети

    Исследователи из Амстердамского университета решили проверить, что произойдет, если создать соцсеть, где все пользователи — искусственный интеллект.

    Они создали социальную сеть, в которой не было ни рекламы, ни алгоритмов рекомендаций, и населили её 500 чат-ботами на базе GPT-4o mini. Каждый бот получил прописанную «личность» и политические взгляды.

    В течение пяти экспериментов боты совершили около 10 000 действий. Выяснилось, что даже без влияния алгоритмов они объединялись в группы по политическим убеждениям, формируя «эхо-камеры». Более того, именно наиболее радикальные публикации привлекали больше всего подписчиков и репостов.

    Учёные подчёркивают: результаты разочаровывающие, ведь чат-боты должны были воспроизводить поведение людей. Но так как они обучены на человеческих данных, «они лишь копируют уже отравленные версии нас самих».

    Чтобы уменьшить раскол, исследователи пробовали разные методы:

    • хронологическую ленту,
    • уменьшение влияния «вирусного» контента,
    • скрытие числа подписчиков и репостов,
    • анонимизацию профилей,
    • усиление противоположных взглядов.

    Однако все попытки провалились. Сдвиг в вовлечённости составил не более 6%, а в случае скрытия биографий разрыв только увеличился — экстремальные посты стали собирать ещё больше внимания.

    В итоге исследование показало: социальные сети как форма общения, возможно, изначально обречены усиливать худшие стороны человеческого поведения. «Соцсети — это кривое зеркало человечества, которое отражает нас в самой искажённой форме», — резюмировали авторы.

  • «Молоток ИИ уже в руках»: экс-топ Google предрек 15 лет тьмы

    «Молоток ИИ уже в руках»: экс-топ Google предрек 15 лет тьмы

    В интервью подкасту Diary of a CEO бывший топ-менеджер Google X Мо Гавдат заявил, что человечество с 2027 года вступит в 12–15-летний период мрачной ИИ-дистопии.

    По его словам, причина не в «восстании машин», а в том, что искусственный интеллект усилит уже существующие проблемы, вызванные «нашей собственной глупостью».

    Гавдат уверен: базовые ценности — свобода, человеческие связи, ответственность, восприятие реальности и распределение власти — будут сильно подорваны. Он подчеркивает, что ИИ не виноват сам по себе: «Нет абсолютно ничего плохого в искусственном интеллекте. Очень много плохого в системе ценностей человечества в эпоху расцвета машин».

    Когда-то он считал, что автоматизация освободит людей от рутины, но реальность пошла другим путем. В капиталистической экономике ИИ стал инструментом сокращения рабочих мест, замедления найма и увеличения нагрузки на сотрудников. «Любая технология усиливает существующие ценности, а сегодня главная ценность человечества — капитализм», — отметил он.

    Гавдат провел параллели с другими технологиями: социальные сети, обещавшие объединить людей, нередко делают их одинокими; мобильные телефоны, призванные облегчить жизнь, сделали ее еще более загруженной.

    Он предупредил, что ИИ усилит «зло, на которое способен человек». Среди примеров — дипфейк-порнография, ИИ в военных разработках, автоматизированные системы слежки, рост криптомошенничества на 456% за год и возможная интеграция ИИ в ядерное оружие. Массовое видеонаблюдение с поддержкой ИИ уже активно используется в Китае и начинает внедряться в США.

    Тем не менее, Гавдат признает, что ИИ приносит огромную пользу в науке, медицине и фармацевтике. Но, по его мнению, главное сейчас — давить на правительства, чтобы они регулировали не сам ИИ, а его применение. «Нельзя спроектировать молоток так, чтобы он забивал гвозди, но не убивал. Но можно сделать убийство молотком преступлением», — сказал он.

    По его словам, «молоток» ИИ уже в наших руках. Остается только решить, напишем ли мы законы, которые не дадут им убивать.

  • «Чёрный ящик» открыт: секретные правила GPT-5 в сети

    «Чёрный ящик» открыт: секретные правила GPT-5 в сети

    Как сообщает GitHub, в сеть попал системный промпт GPT-5 — скрытый набор правил, который пользователи никогда не видят, но который управляет каждым ответом ИИ.

    Утечка раскрыла 15 пунктов, определяющих, что модель может делать, а что категорически запрещено.

    Среди строгих запретов — воспроизведение песен и любого другого защищённого авторским правом контента, даже по просьбе. Нельзя хранить личные данные, которые могут показаться навязчивыми, или прямо указывать расу, этническую принадлежность, религию и сведения о судимости.

    Новые инструкции усиливают внимание к актуальности информации. Если вопрос требует свежих или критически важных данных, GPT-5 обязана использовать интернет, причём каждый запрос получает оценку «необходимости актуальности» от 0 до 5.

    При высоких рисках — финансы, медицина, юриспруденция — модель обязана проверять несколько надёжных источников. Это должно сократить ошибки, которые можно избежать простой проверкой в сети.

    GPT-5 также получила расширенные функции ассистента: долговременную память о пользователях («bio»), планировщик напоминаний, поиск, работу с документами и кодом в «canvas», а также генерацию и редактирование изображений.

    Однако OpenAI жёстко ограничила, какую личную информацию можно запоминать: под запретом здоровье, сексуальная жизнь, точное местоположение, членство в профсоюзах и политические взгляды. Исключение — только по прямому запросу пользователя через инструмент «bio».

    Таким образом, GPT-5 стала функциональнее и персонализированнее, но с чёткими рамками, чтобы не нарушать приватность и права пользователей.

  • Фоткай — и производи: новая эра CAD-моделей

    Фоткай — и производи: новая эра CAD-моделей

    Исследователи опубликовали настоящую сенсацию в мире инженерии и AI — GenCAD, первую открытую нейросеть, способную по фотографии генерировать полноценную параметрическую CAD-модель.

    Но это не просто красивый рендер — речь идёт о скрипте, который можно немедленно загрузить в редактор, изменить и… отправить в производство.

    Разработчики подчёркивают: существующие image-to-mesh-решения работают с вокселями, облаками точек и полигональными сетками — красиво, но бесполезно для инженерии. GenCAD идёт дальше. Она выдаёт не модель-«болванку», а последовательность команд, из которых строится полноценная инженерная модель.

    Сердце GenCAD — сложная архитектура:

    • трансформер-кодировщик, сжимающий команды в компактное ядро;
    • контрастивное обучение, выравнивающее язык команд и визуальный образ;
    • диффузионная модель, превращающая фото в скрытое представление;
    • декодер, который восстанавливает из этого набора параметрические инструкции.

    Главная сенсация — редактируемость. Полученный скрипт можно адаптировать под нужды производства, изменить отдельные параметры и моментально интегрировать в рабочие процессы.

    Вместе с релизом кода на GitHub исследователи выложили датасет и обученные модели. Это не просто шаг к автоматизации дизайна — это революция для всего производства.

  • «Они построили своих заменителей»: King увольняет 200 сотрудников ради ИИ

    «Они построили своих заменителей»: King увольняет 200 сотрудников ради ИИ

    Как сообщает Bloomberg, компания King, создатель Candy Crush, готовится уволить около 200 сотрудников. Но настоящим шоком стало то, что значительная часть увольняемых фактически уступает свои рабочие места тем самым AI-инструментам, которые они сами разрабатывали и обучали.

    Особенно пострадала лондонская команда Farm Heroes Saga: по информации из анонимных источников, коллектив сокращают наполовину, включая ключевых руководителей. Сокращения затрагивают дизайнеров уровней, UX-специалистов и сценаристов. По словам одного из сотрудников, «практически весь отдел дизайна уровней уничтожен», несмотря на то, что именно эти люди «месяцами строили инструменты для ускорения своей работы».

    Руководство объясняет изменения стремлением сократить количество уровней управления и ускорить разработку. Тем временем сотрудники говорят о том, что увольнения происходят и по «произвольным причинам» — за активность в соцсетях или критику внутренних процессов. В компании царит тревога: многие боятся потерять работу, но официальных решений до осени не будет.

    По словам инсайдеров, уже летом некоторые ключевые сотрудники отправлены в «gardening leave» — оплачиваемый простой до финального увольнения в сентябре. А пока King готовит новую организационную структуру и ведёт переговоры с профсоюзами.

    Ситуация с мотивацией и моральным климатом — катастрофическая. Внутренний опрос показал рекордно низкий уровень морального состояния, а после начала увольнений, по словам одного источника, оно «в канаве». HR-департамент King описывается как «абсолютный цирк», защищающий интересы компании, а не сотрудников.

    Увольнения затрагивают офисы в Лондоне, Барселоне, Стокгольме и Берлине. Централизованные ресурсы — исследовательские и QA-команды — также подлежат ликвидации или распределению в продакшн-группы. На фоне растущей прибыли компании, всё это выглядит как холодный расчёт во имя эффективности и максимизации доходов.

    Несмотря на «шаблонные речи» руководства, среди команд сохраняется поддержка друг друга. Один из работников подчёркивает: «Мы действительно заботимся друг о друге и о наших играх. А это значит больше, чем любые “организационные таблицы”».

  • Скандал с AI: поддельные дипломы и переводы за секунды

    Скандал с AI: поддельные дипломы и переводы за секунды

    Новейшая модель изображений OpenAI предоставляет возможность создавать реалистичные поддельные документы буквально за считанные секунды.

    Как сообщает habr.com, пользователь с ником God of Prompt наглядно продемонстрировал, как GPT-4o может сгенерировать фальшивые фотографии отмененных рейсов, банковских переводов, дипломов или медицинских рецептов. Теперь подделка становится доступной каждому!

    Автоматизация подделок с помощью AI ставит под угрозу существующие системы безопасности. Если раньше создание фальшивых документов требовало часов работы и специальных навыков, то сейчас любой может получить реалистичное изображение практически мгновенно. Это приводит к серьезным опасениям о возможности массового распространения подделок.

    Особую тревогу вызывает тот факт, что многие организации часто проводят лишь поверхностные проверки. В таких условиях даже небольшие претензии на компенсацию или заявления о приеме на работу могут пройти незамеченными. Текущие механизмы контроля, включая системы в компаниях и государственных учреждениях, могут оказаться перегружены количеством поддельных документов.

    OpenAI, понимая возможные риски, встроила функции безопасности в GPT-4o: каждое изображение содержит специальные метаданные C2PA, указывающие на его искусственное происхождение. Однако эти метаданные можно проверить только с помощью специального инструмента, что значительно снижает эффективность защиты. К тому же, опытные пользователи могут попытаться удалить эти цифровые метки.

    OpenAI также разработала собственный инструмент отслеживания сгенерированных изображений, но пока неизвестно, как именно и кем он используется. В системной карте GPT-4o компания заявляет, что стремится «максимизировать полезность и творческую свободу, одновременно сводя к минимуму вред», признавая необходимость постоянного совершенствования механизмов безопасности.

  • ChatGPT перегрелся от популярности

    ChatGPT перегрелся от популярности

    Слишком красиво, чтобы выдержать! Новый инструмент генерации изображений от OpenAI — GPT-4o Image Generation — вызвал такой шквал запросов от пользователей, что компания была вынуждена «временно» ввести ограничения на его использование.

    Об этом сообщил генеральный директор OpenAI Сэм Альтман в соцсети X: «Очень забавно наблюдать, как людям нравятся изображения в ChatGPT, но наши графические процессоры плавятся».

    Никаких технических деталей Альтман не раскрыл — ни пределов частоты, ни конкретных цифр. Он лишь выразил надежду, что ограничения будут кратковременными. OpenAI сейчас работает над повышением эффективности своей инфраструктуры, чтобы справиться с растущей нагрузкой.

    Изначально компания планировала допустить бесплатных пользователей к обновлённому генератору изображений, пообещав им до трёх картинок в день. Но ажиотаж оказался настолько мощным, что запуск был отложен. Проблема явно вышла за рамки «пиковых нагрузок».

    Новейший генератор работает на базе мультимодальной модели GPT-4o и уже получил восторженные отзывы за реалистичность изображений и точность соответствия запросам. Прежние проблемы, вроде трудностей с отображением текста, почти устранены. Представитель OpenAI в интервью The Verge назвал технологию «шаговым изменением» в сравнении с предыдущими версиями.

    Однако, как подчеркивает The Verge, этот инцидент показывает, насколько огромные вычислительные ресурсы и энергетические затраты стоят за «волшебной» кнопкой генерации изображений. Иллюзия лёгкости разбилась о реальность плавящихся серверов.