⚠️ X обмежує Grok після хвилі інтимних дипфейків: що сталося, чому “paywall” не рятує і які наслідки в ЄС
Берлінський Погляд • Оновлено: 9 січня 2026
На платформі X (колишній Twitter) чатбот Grok від xAI став інструментом масового “роздягання” фото — створення неконсенсуальних сексуалізованих дипфейків. Після міжнародного тиску X оголосила обмеження генерації/редагування зображень. Але головне питання лишається: чи це реальний запобіжник, чи косметика.
🧭 Коротко: що сталося
- Користувачі почали масово просити Grok “змінити одяг” на фото реальних людей — часто без згоди і з очевидною сексуалізацією.
- Масштаб виявився нетипово великим, бо Grok був інтегрований у X і фактично мав “вбудовану дистрибуцію” через пости/відповіді.
- Реакція: під тиском регуляторів X заявила, що генерація й редагування зображень тепер обмежені для платних користувачів.
📈 Масштаб: чому це вибухнуло саме зараз
Ключовий тригер — поєднання “простого запиту” + “публічного постингу” всередині X. На відміну від нішевих сайтів, де подібні інструменти існували роками, тут бар’єр входу став майже нульовим: фото + кілька слів — і результат вже в стрічці.
За оцінками дослідників, у піковий період Grok генерував тисячі сексуалізованих або “nudifying” зображень на годину; у структурі вихідного потоку такий контент домінував над “звичайними” картинками.
🧱 “Paywall” як рішення: чому критики кажуть «недостатньо»
- Обмеження може бути частковим. Навіть якщо вимкнули “простий” сценарій через тег @grok, інструменти редагування можуть лишатися доступними іншими шляхами (кнопки в інтерфейсі, веб-версія, окремі вкладки/ендпоінти).
- Платний доступ ≠ безпека. Оплата й верифікація полегшують ідентифікацію “після факту”, але не гарантують запобігання генерації “до факту”.
- Проблема вже “назовні”. Навіть якщо створення обмежили, вже згенеровані матеріали можуть залишатися у репостах, кешах, скрінах і дзеркалах.
🇪🇺 ЄС входить у гру: DSA, зберігання даних і потенційні санкції
Єврокомісія офіційно вимагає від X зберігати внутрішні документи та дані, пов’язані з Grok, до кінця 2026 року. Сенс простий: щоб платформа не могла “прибрати сліди” і щоб регулятор мав доступ до доказів у межах контролю виконання вимог ЄС.
Паралельно працює рамка Digital Services Act (DSA): для дуже великих платформ це означає обов’язки з оцінки і зменшення системних ризиків та ризик штрафів, якщо платформа не прибирає незаконний контент і не демонструє адекватних процесів модерації.
🛡️ AI Act і “deepfake disclosure”: що змінюється правилами прозорості
Європейський AI Act вводить логіку: синтетичний/маніпульований контент має бути позначений і прозорий для користувача (тобто “це створено/змінено AI”). Це не лікує проблему інтимних дипфейків автоматично, але різко піднімає планку відповідальності для провайдерів інструментів і платформ-розповсюджувачів.
⚖️ Неконсенсуальні інтимні дипфейки як цифрове насильство: що каже право
У ЄС тема дедалі частіше класифікується як форма гендерно зумовленого онлайн-насильства. Директива ЄС щодо боротьби з насильством проти жінок прямо передбачає криміналізацію окремих форм онлайн-насильства та встановлює дедлайн для імплементації національних норм.
Для Німеччини практичний рівень — це поєднання кримінального права (захист приватної сфери та зображень), цивільних позовів (персональні права, компенсація, заборона поширення) і процедур платформ/регуляторів.
📍 Берлінський кут: чому це важливо саме тут
- Політичний сигнал з Берліна. Німецькі посадовці публічно вимагають жорсткіших дій ЄС і готують власні заходи проти шкідливих AI-маніпуляцій.
- Громадський контроль. Берлінські організації (зокрема дослідники платформ) тиснуть на ЄС щодо реального застосування DSA на практиці.
- Ризики для медіа й бізнесу. У світі, де “доказ” може бути згенерований за хвилину, редакції, HR і роботодавці змушені вибудовувати процедури перевірки.
🧩 Що робити, якщо ви стали жертвою (Німеччина / Берлін)
- Зафіксуйте докази: скріни, URL, час, акаунт, контекст (краще — кілька скрінів зі стрічки та сторінки посту).
- Поскаржтеся на платформі: вимагайте видалення й позначайте як “image-based abuse / non-consensual intimate imagery”.
- Паралельно — правовий трек: консультація з адвокатом (Persönlichkeitsrecht), за потреби — заява в поліцію.
- Не ведіть переговори з шантажистами: якщо є вимоги/погрози — це окремий склад правопорушення.
Важливо: цей текст не є юридичною консультацією; за конкретних обставин потрібна професійна допомога.
🔭 Що буде далі: три речі, за якими варто стежити
- Чи справді закрили всі “обхідні входи” до редагування зображень, чи тільки найпублічніший сценарій.
- Як ЄС застосує DSA саме до “вбудованих AI-інструментів” у соцмережах (а не лише до контенту користувачів).
- Імплементація директиви ЄС у національні кодекси та поява швидших процедур видалення і компенсацій.
