алгоритмы

  • 500 ботов устроили войну в искусственной соцсети

    500 ботов устроили войну в искусственной соцсети

    Исследователи из Амстердамского университета решили проверить, что произойдет, если создать соцсеть, где все пользователи — искусственный интеллект.

    Они создали социальную сеть, в которой не было ни рекламы, ни алгоритмов рекомендаций, и населили её 500 чат-ботами на базе GPT-4o mini. Каждый бот получил прописанную «личность» и политические взгляды.

    В течение пяти экспериментов боты совершили около 10 000 действий. Выяснилось, что даже без влияния алгоритмов они объединялись в группы по политическим убеждениям, формируя «эхо-камеры». Более того, именно наиболее радикальные публикации привлекали больше всего подписчиков и репостов.

    Учёные подчёркивают: результаты разочаровывающие, ведь чат-боты должны были воспроизводить поведение людей. Но так как они обучены на человеческих данных, «они лишь копируют уже отравленные версии нас самих».

    Чтобы уменьшить раскол, исследователи пробовали разные методы:

    • хронологическую ленту,
    • уменьшение влияния «вирусного» контента,
    • скрытие числа подписчиков и репостов,
    • анонимизацию профилей,
    • усиление противоположных взглядов.

    Однако все попытки провалились. Сдвиг в вовлечённости составил не более 6%, а в случае скрытия биографий разрыв только увеличился — экстремальные посты стали собирать ещё больше внимания.

    В итоге исследование показало: социальные сети как форма общения, возможно, изначально обречены усиливать худшие стороны человеческого поведения. «Соцсети — это кривое зеркало человечества, которое отражает нас в самой искажённой форме», — резюмировали авторы.

  • Почему лучше никогда не гуглить болезни (Это будет преследовать вас месяцами)

    Почему лучше никогда не гуглить болезни (Это будет преследовать вас месяцами)

    Автор MIT Technology Review рассказала, как устроены алгоритмы поисковых систем и объяснила, чем может закончиться поиск болезней.

    Автор рассказала, как начала гуглить информацию о раке горла, потому что этот диагноз поставили её отцу. В конце концов эта информация словно стала сама находить женщину. Так, на Amazon появился блок с рекомендациями книг про горе и утрату, а при покупке лосьона для лица, ей предложили купить книгу «F*ck Death: честное руководство по преодолению горя». Конечно же, всё дело было в персонализованной рекомендательной системе.

    Автор задалась вопросом: почему же так сложно отказаться от контента, который нам не нужен, даже если он причиняет нам очевидный вред? Она поняла, что интенсивно переживала воздействие методов распространения рекламы в интернете. Искусственный интеллект и сбор данных пользователей сделали таргетинг более персонализированным. «Осознаете вы это или нет, но вы тоже уже, вероятно, стали частью какого-нибудь цифрового паттерна», — отметила автор.

    Она сообщила, что чем больше старалась избегать неприятного контента, тем больше его ей показывали. Как пишет автор, алгоритмы настроены таким образом, что если человек хочет увидеть экстремальный контент, то площадка должна предложить ему такой.

    Женщина добавила, что чтобы избавиться от таких рекомендаций, можно попытаться запутать алгоритм: лайкать и обращать внимание на то, что вам совсем не интересно. Кроме того, можно использовать режим инкогнито или приватные браузеры, а также регулярно очищать историю посещённых страниц и файлы cookie.

    Читать в источнике