Гигантът в областта на социалните медии Twitter твърди, че новата система за предотвратяване на разпространението на материали със сексуално насилие над деца (CSAM) в платформата му е била „внедрена безпроблемно“, като е тествана технология, разработена от групата с нестопанска цел Thorn.
Във вторник акаунтът за безопасност на Twitter съобщи, че е участвал в бета тест на задвижваното от изкуствен интелект решение Safer на групата за проактивно откриване, изтриване и докладване на текстови материали, съдържащи сексуална експлоатация на деца.
Посредством продължаващото ни партньорство с @thorn правим повече за създаването на безопасна платформа. X участва в тестването на решението на Thorn по време на бета-фазата му за проактивно откриване на текстова сексуална експлоатация на деца. Тази работа надгражда нашите непрестанни усилия за борба със сексуалното насилие над деца…
– Safety (@Safety) May 7, 2024
„Чрез продължаващото ни партньорство с Thorn правим повече за създаването на безопасна платформа“, пише акаунтът за безопасност в Twitter. „Тази работа се основава на нашите непрестанни усилия за борба със сексуалната експлоатация на деца онлайн, като конкретната цел е да разширим възможностите си в борбата със съдържание с висока степен на увреждане, при което детето е изложено на непосредствен риск.“
„Това самостоятелно хоствано решение беше внедрено безпроблемно в нашите механизми за откриване, което ни позволява да се усъвършенстваме по отношение на високорискови акаунти“, продължи той.
Създадена през 2012 г. от актьорите Деми Мур и Аштън Къчър, Thorn разработва инструменти и ресурси, насочени към защита на децата от сексуално насилие и експлоатация. През април Google, Meta и OpenAI подписаха ангажимент, издаден от Thorn и друга организация с нестопанска цел All Tech is Human, в който обещаха да наложат предпазни огради около своите модели на изкуствен интелект.
„Научихме много от нашите бета тестове“, заяви пред TCN вицепрезидентът на Thorn по науката за данните Ребека Портноф. „Макар да знаехме, че сексуалното насилие над деца се проявява във всички видове съдържание, включително в текст, при това бета тестване видяхме конкретно как машинното обучение/ИИ за текст може да има реално въздействие в голям мащаб.“
Както обясни Портноф, моделът Safer AI се състои от езиков модел, обучен на текстове, свързани с безопасността на децата, и система за класификация, която генерира многозначни прогнози за текстови последователности. Оценките на предсказанията варират от 0 до 1, което показва доверието на модела в релевантността на текста към различните категории за безопасност на децата.
Макар че Портноф не може да разкрие кои други платформи за социални медии участват в бета-теста на пакета от продукти Safer, тя заяви, че отговорът от други компании е положителен.
„Някои партньори споделиха, че моделът е особено полезен за идентифициране на вредни дейности, свързани със сексуална злоупотреба с деца, за приоритизиране на съобщенията, за които се съобщава, и за подпомагане на разследванията на известни лоши актьори“, каза Портноф.
Поради разпространението на инструменти за генериращ изкуствен интелект след стартирането на ChatGPT през 2022 г. групи за наблюдение на интернет като базираната в Обединеното кралство фондация Internet Watch Foundation алармираха за поток от генерирана от изкуствен интелект детска порнография, циркулираща по форумите в тъмната мрежа, като заявиха, че незаконните материали могат да претоварят интернет.
Съобщението на екипа за безопасност на Twitter дойде часове преди Европейският съюз да поиска от компанията да обясни съобщенията за „намаляващи ресурси за модериране на съдържание“.
В последния доклад за прозрачност, който Twitter представи на регулаторните органи на ЕС, се казва, че мерките за намаляване на разходите на Елон Мъск са намалили размера на екипа за модериране на съдържание на платформата с почти 20% от октомври 2023 г. насам и са намалили броя на наблюдаваните езици от 11 на 7.
„Комисията също така иска допълнителни подробности относно оценките на риска и мерките за смекчаване, свързани с въздействието на генеративните инструменти на изкуствения интелект върху изборните процеси, разпространението на незаконно съдържание и защитата на основните права“, се добавя в искането.
ЕС откри официална процедура срещу Twitter през декември 2023 г. поради опасения, че компанията е нарушила Закона за цифровите услуги в няколко области, включително управление на риска, модериране на съдържанието, „тъмни модели“ и достъп до данни за изследователи.
Комисията заяви, че Twitter трябва да предостави исканата информация до 17 май и да отговори на допълнителни въпроси до 27 май.