de

Мізогінія як бізнес-стратегія. Чи можемо ми зупинити ШІ-оголення?

Європейська комісія розпочала перевірку щодо GrokAI Ілона Маска після того, як користувачі створили мільйони сексуалізованих зображень без згоди (NSTs). Хоча технічно заборона можлива, експерти стверджують, що цього скандалу можна було уникнути. джерело перекладу

Хазар Деніз Екер

Як ми дійшли до того, що користувачі за допомогою вільно доступного інструменту ШІ створювали сексуалізоване зображення дитини кожні 41 секунду?

«Коли ми отримуємо доступ до нових форм технологій… значна їх частина дуже швидко починає пристосовуватися для переслідування жінок, зловживань щодо жінок і підпорядкування жінок», — сказала письменниця Лора Бейтс виданню Wired ще у вересні.

Торік авторка опублікувала книжку The New Age of Sexism, у якій описує, як ШІ змінює мізогінію. Вона зазначає, що ці інструменти «посилюють [мізогінію] через нові форми погроз, переслідувань і контролю, які можуть здійснювати кривдники».

Скандал із GrokAI підтверджує її слова: лише за два тижні користувачі соціальної платформи X, що належить Ілону Маску, згенерували три мільйони сексуалізованих зображень за допомогою вбудованої системи ШІ, з яких 23 000 зображали дітей.

Користувачі просто публікували фотографію людини, а потім просили GrokAI роздягнути її, змінити тіло або розмістити в сексуалізованих позах.

Що може зробити ЄС

На початку грудня Комісія оштрафувала Ілона Маска на 120 мільйонів євро через проблеми з прозорістю — штраф настільки незначний порівняно з його статками у 778 мільярдів доларів (близько 660 мільярдів євро), що він заявив, ніби «ЄС слід скасувати».

Згодом X обмежила використання своїх функцій ШІ лише для платних підписників, а потім заявила, що заборонила цю функцію на всій платформі — однак журналісти повідомили, що ШІ-оголення в GrokAI все ще частково доступне.

У відповідь X тимчасово заблокували в Індонезії та Малайзії. Велика Британія, Австралія та Франція розпочали розслідування щодо платформи; тепер до них приєднався ЄС із новою перевіркою X відповідно до Акта про цифрові послуги (Digital Services Act, DSA). DSA регулює такі платформи, як X, Meta чи TikTok, у питаннях поширення дезінформації, прозорості реклами, модерації контенту та іншого.

«Правда полягає в тому, що X фактично не оцінила жодного з цих ризиків», — пояснив у заяві, що оголошувала про перевірку, речник Комісії з питань технологій і суверенітету Томас Реньє.

У разі невиконання вимог Союз може накласти додаткові штрафи та посилити нагляд за платформою або навіть запровадити «тимчасові заходи», включно з тимчасовою забороною X.

Хоча Комісія ще не забороняла жодну платформу відповідно до DSA, варто зрозуміти, як це могло б працювати — і як ШІ-оголення взагалі стали настільки доступними.

Як працює генерація зображень ШІ

Раніше все було просто: ще кілька місяців тому зображення, згенеровані ШІ, мали характерні ознаки — сумнозвісно дивні руки з сімома пальцями, порожні очі без будь-якої людяності, дивні тексти, «meow meow meow meow», непослідовні тіні тощо.

Але ви, мабуть, уже помітили, що тепер ШІ дедалі важче відрізнити від реальності. Саймон Торн, дослідник ШІ з Кардіффського університету, пояснює покращення зростанням інвестицій у дифузійні моделі:

«Принцип роботи дифузії полягає в тому, що модель отримує запит, — пояснив він TEC, — скажімо, ми просимо зображення замку. Вона навчається, беручи незмінене зображення, випадковим чином додаючи шум, доки замок повністю не зникне, а потім зворотним процесом — прибираючи шум, доки не залишаться елементи, що визначають структуру».

Щоразу, коли ми вказуємо на помилки, модель навчається: якщо вона неправильно відтворила вікно чи дах, вона поступово вдосконалюється, доки не матиме чіткого розуміння того, що таке замок.

З огляду на величезні ресурси, спрямовані на процес навчання, моделі ШІ швидко вдосконалилися, і тепер створення візуальних матеріалів — включно із сексуалізованими зображеннями на X цього місяця — є простішим, ніж будь-коли раніше. «Коли ці “ознаки, що зберігають ідентичність, збережені, перетворення одягненого фото на оголене стає технічно нескладним», — продовжив Торн.

Що могло бути інакше

Але навіть попри це: ШІ-оголення такого масштабу, як цього місяця, можна було запобігти. «X могла зупинити це того ж вечора, у день, коли вони зрозуміли, що відбувається», — стверджує Торн.

Ці моделі можна регулювати через ретроспективне узгодження — процес, за якого платформи, що розміщують моделі ШІ, «можуть вигадувати новий набір правил у будь-який момент, обмежуючи використання моделі».

Маттіас Шпількамп, журналіст і виконавчий директор НУО AlgorithmWatch, погоджується. «Інші платформи активно ідентифікували контент, що просував NST, і видаляли його. X також могла легко це зробити», — пояснив він TEC.

На думку НУО, збереження доступності NST може бути частиною бізнес-стратегії платформи, аргументує Шпількамп, оскільки «такий мізогінний контент і інструменти залишаються привабливими для користувацької бази X і для самого Ілона Маска».

І все ж: навіть якби X зупинила скандал на ранньому етапі, завжди існуватимуть альтернативні платформи, які надаватимуть доступ до цих інструментів.

«Деякі системи навіть позиціонують себе через низьку підзвітність», — зауважив Торн. Прикладом є Venice AI, уся концепція сайту якої з оформленням у стилі спа полягає в тому, що ваші запити залишатимуться приватними. Або локальні LLM-моделі, які дозволяють офлайн-генерацію ШІ, далеко від будь-якого нагляду.

Лаура Каун, керівниця з питань публічної політики ЄС і Великої Британії в організації Centre for Countering Digital Hate (CCDH), яка викрила скандал із X, сказала The European Correspondent, що «користувачі не повинні “уникати” платформ, щоб бути в безпеці. Вони можуть зменшити ризики, посиливши налаштування приватності та використовуючи інструменти скарг, але це обмежені заходи».

Найновіша кампанія CCDH, запущена вчора, закликає ЄС широко застосовувати DSA та вимагає від X оприлюднити більше даних. «Якщо платформи можуть приховувати докази, вони можуть уникати відповідальності».

Авторство фото: Stable Diffusion / Benlisquare / Wikimedia, [CC](http://creativecommons.org/licenses/by-sa/4.0/) BY-SA

Tags: No tags

Comments are closed.