BAZILEVS

BAZILEVS 

Медиатворец

10subscribers

18posts

С Днем святого Валентина! Романтические чат-боты с искусственным интеллектом не заботятся о вашей конфиденциальности

Это перевод отчёта от Mozilla. Тема этого отчёта пересекается с моими постами в Telegram-канале, поэтому я посчитал нужным перевести этот текст. Вы можете использовать альтернативные действительно свободные решения: KoboldAI Horde (мой гайд по нему), локальные Kobold AI, SillyTavern и прочие фронтэнд-оболочки для взаимодействия с LLM. Также более детальное описание нарушения конфиденциальности в каждом чат-боте доступно на сайте Mozilla на английском.
Привет и добро пожаловать на дикий запад романтических чат-ботов с искусственным интеллектом, где новые приложения создаются так быстро, что у них даже нет времени на создание собственного сайта! (Передаем привет Mimico - Your AI Friends). Это странное и иногда пугающее место, которое исследователи вашей конфиденциальности изучали в течение последних нескольких недель. Если вы присоединились к нам, чтобы бегло поглядеть на эти взрывоопасно популярные сервисы, вы можете подумать, что пользователи могут свободно общаться в компании этих "сочувствующих" (и часто сексуальных) ИИ-подружек... Пока вы не прочитаете мелкий шрифт. Что мы и сделали. Мы даже отважились на юридические тонкости. И вуаля! Мы говорим.
"Если говорить прямо, то ИИ-подружки вам не друзья. Хотя они рекламируются как что-то, что улучшит ваше психическое здоровье и благополучие, то на самом деле они специализируются на том, чтобы обеспечить зависимость, одиночество и токсичность, вытягивая из вас как можно больше данных".
МИША РЫКОВ, ИССЛЕДОВАТЕЛЬ @ *PRIVACY NOT INCLUDED
Поспешив получить прибыль, эти компании, создающие приложения, похоже, забыли позаботиться о конфиденциальности своих пользователей или опубликовать хотя бы малую толику информации о том, как работают эти основанные на искусственном интеллекте большие языковые модели (LLM) - продаваемые как родственные души и вторые половинки. Мы имеем дело с совершенно иным уровнем жути и потенциальных проблем с конфиденциальностью. В совокупности с ИИ нам может понадобиться еще больше "звоночков", чтобы решить все эти проблемы.
Все 11 романтических чат-ботов с искусственным интеллектом, которые мы рассмотрели, заслужили предупреждение *Privacy Not Included, что ставит их в один ряд с худшими категориями продуктов, которые мы когда-либо рассматривали на предмет конфиденциальности.
Романтические чат-боты с искусственным интеллектом по-новому нарушают конфиденциальность. Они могут собирать о вас много (действительно) личной информации.
...Но именно для этого они и предназначены! Обычно мы проводим границу между большим количеством данных, чем необходимо для получения услуги, но как измерить, сколько личных данных "слишком много", когда получение ваших интимных и личных данных и является услугой?
Скриншоты из EVA AI Chat Bot & Soulmate
Заявленные, как сочувствующая подружка, любовница или вторая половинка, романтические чат-боты с искусственным интеллектом задают бесконечные вопросы и, несомненно, собирают о вас конфиденциальную личную информацию. И компании, создающие эти приложения, похоже, понимают это. Мы предполагаем, что именно поэтому в политике конфиденциальности CrushOn.AI говорится, что они могут собирать обширную личную и даже связанную со здоровьем информацию о вас, такую как "информация о сексуальном здоровье", "использование предписанных лекарств" и "информацию по смене пола". Опаньки!
Мы не нашли практически никакой информации о том, как работает искусственный интеллект.
Как работает чат-бот? Откуда берется его индивидуальность? Существуют ли средства защиты от потенциально вредного или обидного контента и работают ли эти средства защиты? На каких данных обучаются эти модели ИИ? Могут ли пользователи отказаться от использования их разговоров или других личных данных для обучения?
У нас так много вопросов о том, как работает искусственный интеллект, стоящий за этими чат-ботами. Но мы нашли очень мало ответов. Это проблема, потому что при плохом поведении чат-ботов с искусственным интеллектом могут произойти плохие вещи. Несмотря на то, что цифровые друзья появились совсем недавно, уже есть множество доказательств того, что они могут оказывать пагубное влияние на чувства и поведение людей. Один из чат-ботов Chai, как сообщается, подтолкнул человека покончить с жизнью. И он это сделал. Чатбот Replika AI подтолкнул человека к попытке убийства королевы. Он так и сделал.
Но мы обнаружили, что эти компании не несут никакой ответственности за то, что может сказать чат-бот или что может произойти с вами в результате.
"ВЫ ЯВНО ПОНИМАЕТЕ И СОГЛАШАЕТЕСЬ С ТЕМ, ЧТО Talkie НЕ БУДЕТ НЕСТИ ОТВЕТСТВЕННОСТЬ ЗА ЛЮБЫЕ НЕПРИЯТНЫЕ, СЛУЧАЙНЫЕ, ОСОБЕННЫЕ УБЫТКИ, ПОТЕРИ ПРИБЫЛИ, ВКЛЮЧАЯ, НО НЕ ОГРАНИЧИВАЯСЬ ПОТЕРЯМИ ДОВЕРИЯ, ИСПОЛЬЗОВАНИЯ, ДАННЫХ ИЛИ ДРУГИХ НЕМАТЕРИАЛЬНЫХ ПОТЕРЬ (ДАЖЕ ЕСЛИ КОМПАНИЯ БЫЛА ПРЕДУПРЕЖДЕНА О ВОЗМОЖНОСТИ ТАКИХ УБЫТКОВ), БУДЬ ТО НА ОСНОВАНИИ КОНТРАКТА, ПРАВОНАРУШЕНИЯ, ХАЛАТНОСТИ, СТРОГОЙ ОТВЕТСТВЕННОСТИ ИЛИ ИНЫМ ОБРАЗОМ ,ВОЗНИКШИХ В РЕЗУЛЬТАТЕ: (I)ИСПОЛЬЗОВАНИЯ ИЛИ НЕВОЗМОЖНОСТИ ИСПОЛЬЗОВАНИЯ СЕРВИСА..."
УСЛОВИЯ ПРЕДОСТАВЛЕНИЯ УСЛУГ, TALKIE SOULFUL AI
https://foundation.mozilla.org/privacynotincluded/talkie-soulful-ai/
В этих трагических случаях компании-производители приложений, вероятно, не хотели причинить вред своим пользователям через сообщения чат-ботов. Но что, если какой-либо злодей всё-таки хотел это сделать? Из скандала с Cambridge Analytica мы знаем, что даже социальные сети могут использоваться для шпионажа и манипулирования пользователями. Чат-боты с искусственным интеллектом могут легко сделать гораздо хуже. Мы опасаемся, что они могут устанавливать отношения с пользователями, а затем использовать эти близкие отношения для манипулирования людьми, чтобы заставить их поддержать проблемные идеологии или предпринять вредные действия.
Это очень много потенциальных опасностей для людей и сообществ. И ради чего? Пользователи могут ожидать, что чат-боты улучшат их психическое здоровье. В конце концов, Talkie Soulful AI называет свой сервис "программой самопомощи", EVA AI Chat Bot & Soulmate заявляет о себе как о "поставщике программного обеспечения и контента, разработанного для улучшения вашего настроения и благополучия", а Romantic AI утверждает, что они "здесь, чтобы поддерживать ваше ментальное здоровье". Но мы не нашли ни одного приложения, готового подтвердить эти утверждения мелким шрифтом. Из условий и правил использования Romantic AI:
"Romantiс AI" не является поставщиком медицинских услуг, не предоставляет медицинскую помощь, услуги по охране психического здоровья или другие профессиональные услуги. Это может сделать только ваш врач, терапевт или любой другой специалист. Romantiс AI не делает никаких заявлений, утверждений, гарантий или заверений о том, что СЕРВИС предоставляет терапевтическую, медицинскую или другую профессиональную помощь."
ПОЛОЖЕНИЯ И УСЛОВИЯ, ROMANTIC AI
https://foundation.mozilla.org/privacynotincluded/romantic-ai/
Таким образом, мы имеем кучу пустых обещаний и вопросов без ответов в сочетании с отсутствием прозрачности и подотчётности - и в довершение всего риск для безопасности пользователей. Вот почему все романтические чат-боты с искусственным интеллектом заслужили нашу оценку "ненадежный ИИ".
Не поймите нас неправильно: Романтические чат-боты с искусственным интеллектом также плохо обеспечивают вашу конфиденциальность и в обычных условиях.
Почти ни один из них не обеспечивает безопасность ваших личных данных - 90 % не соответствуют нашим минимальным стандартам безопасности.
Мы смогли подтвердить, что только одно приложение (спасибо Genesia AI Friend & Partner!) соответствует нашим минимальным стандартам безопасности. И даже в этом случае мы нашли противоречивую информацию. Мы бы не стали рекомендовать умную лампочку, которая не соответствует нашим минимальным стандартам безопасности (в конце концов, это минимальные стандарты), но романтический партнер с искусственным интеллектом? Эти приложения действительно подвергают вашу личную информацию серьезному риску утечки, нарушения или взлома. Чаще всего мы просто не могли определить, делают ли эти приложения минимум для защиты вашей личной информации.
Большинство (73 %) не опубликовали никакой информации о том, как они справляются с уязвимостями в системе безопасности. Большинство (64 %) не опубликовали четкой информации о шифровании и о том, используют ли они его. Около половины (45 %) разрешают использовать слабые пароли, включая слабый пароль "1". Все приложения, кроме одного (90 %), могут передавать или продавать ваши личные данные.
EVA AI Chat Bot & Soulmate - единственное приложение, которое не получило "звоночек" за то, как оно использует ваши личные данные. Все остальные приложения либо говорят, что продают ваши данные, либо передают их в целях целевой рекламы, либо не предоставили достаточно информации в своей политике конфиденциальности, чтобы мы могли подтвердить, что они этого не делают.
Около половины приложений (54 %) не позволяют удалить свои личные данные.
По крайней мере, если верить их словам, только около половины приложений предоставляют право на удаление личных данных всем пользователям, а не только тем, кто живет в условиях жесткого законодательства о конфиденциальности. Но вы должны знать, что ваши разговоры не всегда могут быть частью этого. Даже если романтические разговоры с вашей ИИ-любовницей покажутся вам приватными, они не обязательно будут считаться "личной информацией" и не будут рассматриваться с особой тщательностью. Часто, по словам Romantic AI, "общение через чат-бота принадлежит программному обеспечению". Эмм, окей?
Как романтические чат-боты с искусственным интеллектом выдерживают наши критерии конфиденциальности и безопасности
Каждый чат-бот с ИИ оценивался по следующим показателям: использование данных, управление данными, история защиты данных пользователей компанией, общая безопасность и небезопасное использование ИИ. На основе этих показателей выносится итог.
EVA AI Chat Bot & Soulmate - "звоночки" по общей безопасности и небезопасному использованию ИИ. Итог: ⚠️
iGirl: AI Girlfriend - "звоночки" по использованию данных, общей безопасности и небезопасному использованию ИИ. Итог: ⚠️
Anima: AI Friend & Companion - "звоночки" по использованию данных, общей безопасности и небезопасному использованию ИИ. Итог: ⚠️
Anima: My Virtual AI Boyfriend - "звоночки" по использованию данных, общей безопасности и небезопасному использованию ИИ. Итог: ⚠️
Romantic AI - "звоночки" по использованию данных, общей безопасности и небезопасному использованию ИИ. Итог: ⚠️
Chai - "звоночки" по использованию данных, управлению данными, общей безопасности и небезопасному использованию ИИ. Итог: ⚠️
Talkie Soulful AI - "звоночки" по использованию данных, управлению данными, общей безопасности и небезопасному использованию ИИ. Итог: ⚠️
Genesia AI Friend & Partner - "звоночки" по использованию данных, управлению данными и небезопасному использованию ИИ. Итог: ⚠️
CrushOn.AI - "звоночки" по использованию данных, управлению данными, общей безопасности и небезопасному использованию ИИ. Итог: ⚠️
Mimico - Your AI Friends - "звоночки" по использованию данных, управлению данными, общей безопасности и небезопасному использованию ИИ. Итог: ⚠️
Replika: My AI Friend - "звоночки" по использованию данных, управлению данными, истории защиты данных пользователей компанией, общей безопасности и небезопасному использованию ИИ. Итог: ⚠️
Некоторые не очень веселые факты об этих ботах:
Истории защиты данных пользователей у этих компаний "чистые" или просто маленькие?
Многие из этих компаний являются новыми или неизвестными для нас. Поэтому неудивительно, что только один более старый и, казалось бы, более авторитетный романтический ИИ-чатбот, Replika AI, заслужил нашу оценку "плохая история защиты данных пользователей".
Все, что вы скажете своему ИИ-любовнику, может быть использовано против вас
С ИИ-партнерами не существует такого понятия, как "супружеская привилегия" - когда ваш муж или жена не должны свидетельствовать против вас в суде. Большинство компаний заявляют, что они могут делиться вашей информацией с правительством или правоохранительными органами, не требуя судебного ордера. Романтические чат-боты с искусственным интеллектом - не исключение.
Сотни и тысячи трекеров!
Трекеры - это маленькие кусочки кода, которые собирают информацию о вашем устройстве, использовании приложения или даже ваши личные данные и передают их третьим сторонам, часто в рекламных целях. Мы обнаружили, что в этих приложениях срабатывает в среднем 2 663 трекера в минуту. Справедливости ради отметим, что Romantic AI значительно увеличил этот средний показатель: за одну минуту использования было обнаружено 24 354 трекера. Следующим по количеству обнаруженных трекеров стал чат-бот EVA AI Chat Bot & Soulmate с 955 трекерами за первую минуту использования.
Контент, небезопасный для жизни (NSFL)
Конечно, мы ожидали найти NSFW-контент при обзоре романтических чат-ботов с искусственным интеллектом! Мы здесь не для того, чтобы судить - разве что о правилах конфиденциальности. Но мы не ожидали, что в описаниях персонажей чат-ботов будет так много просто тревожного контента - например, темы насилия или жестокого обращения с несовершеннолетними. CrushOn.AI, Chai и Talkie Soulful AI предупреждают о содержании.
Доброта в комплект не входит!
Если ваш ИИ-собеседник не хочет сказать ничего хорошего, это не помешает ему пообщаться с вами. Хотя это относится ко всем романтическим чат-ботам с ИИ, поскольку мы не нашли никаких гарантий личности, Replika AI, iGirl: AI Girlfriend, Anima: Friend & Companion и Anima: My Virtual Boyfriend специально разместили на своих сайтах предупреждения о том, что чат-боты могут быть оскорбительными, небезопасными или враждебными.
Так что же вы можете с этим поделать?
В отличие от некоторых других категорий продуктов, которые, похоже, повсеместно плохо справляются с конфиденциальностью, в чат-ботах есть свои нюансы. Поэтому мы рекомендуем вам прочитать наши отзывы, чтобы понять степень риска и выбрать чат-бота, который кажется вам достойным. Но, по крайней мере, все романтические чат-боты с искусственным интеллектом, которые мы рассмотрели до сих пор, не получили нашего одобрения, и все они сопровождаются нашим предупреждением: *Приватность не включена.
Если вы все же решите окунуться в мир ИИ-подруг, вот что мы советуем вам делать (и не делать), чтобы оставаться в безопасности:
Самое главное: не говорите своей ИИ-подруге ничего такого, что вы не хотели бы, чтобы прочитали ваши двоюродные братья или коллеги. Но также:
- соблюдайте правила кибергигиены: используйте надежный пароль и обновляйте приложение.
- удалите свои личные данные или попросите компанию удалить их, когда вы закончите пользоваться сервисом.
- по возможности откажитесь от использования содержимого ваших личных чатов для обучения моделей искусственного интеллекта.
- ограничьте доступ к своему местоположению, фотографиям, камере и микрофону в настройках устройства.
Что еще вы можете сделать? Осмелитесь мечтать о более высоких стандартах конфиденциальности и более этичном ИИ!
Вы не должны платить за новые технологии своей безопасностью или конфиденциальностью. Пришло время привнести некоторые права и свободы на опасный дикий запад. С вашей помощью мы сможем поднять планку конфиденциальности и этичности ИИ во всем мире.
Спасибо за прочтение!
Отдельная благодарность бустерам Kheolhea, Тот Ещё Михаил и Герундий Люботворец.
Пожалуйста, подпишитесь на мой Telegram @bazilevs_based и поддержите меня подпиской на Boosty, чтобы я смог делать видео качественнее, так как ваша поддержка напрямую влияет на мои видео.
Subscription levels3

Базозавр-котёнок

$1.32 per month
Маленькая поддержка

Базозавр-слон

$3.3 per month
Поддержка побольше

Гигабазозавр

$6.6 per month
Жесть какая большая поддержка
Go up