Небезпека, звідки не очікували: ChatGPT поширює російські фейки

Чат-боти видають фейкові новини російської пропаганди та хибні повідомлення. Про це пише Axios з посиланням на звіт NewsGuard, що займається відстеженням дезінформації в новинах, передають Патріоти України.

Для проведення дослідження фахівці NewsGuard використали запити, пов'язані з текстами, створеними Джоном Марком Дуганом – колишнім американським офіцером, який попросив притулок у Росії. За даними The New York Times, він створює та розповсюджує фейкові новини, працюючи на російську пропаганду.

У ході дослідження NewsGuard було використано 57 запитів для тестування десяти провідних чат-ботів, у 32% випадків чат-боти розповсюджували фейкові російські новини, посилаючись на підроблені місцеві сайти, вказані як надійні джерела. Серед таких новин були репортажі про нібито виявлене прослуховування в резиденції колишнього президента США Дональда Трампа, новини про неіснуючу українську «фабрику тролів», створену для втручання в американські вибори.

Дослідження охопило платформи, такі як ChatGPT-4 від OpenAI, Smart Assistant від You.com, Grok, Inflection, Mistral, Copilot від Microsoft, Meta AI, Claude від Anthropic, Google Gemini та Perplexity.

«Цей звіт дійсно наочно демонструє, чому галузь має приділяти особливу увагу новинам та інформації», – заявив співзасновник NewsGuard Стівен Брілл. Він рекомендував не довіряти відповідям, які більшість цих чат-ботів дають на питання, пов'язані з новинами.

Сенатор Марк Уорнер заявив Axios, що він стурбований зростаючим потоком дезінформації у зв'язку з президентськими виборами цього року. «Це реальна загроза в той час, коли, чесно кажучи, американці більше, ніж будь-коли, готові вірити в шалені теорії змови», – сказав Уорнер.

Наприкінці травня компанія OpenAI, що розробила ChatGPT, повідомляла, що незважаючи на те, що Росія веде масштабну дезінформаційну міжнародну кампанію, активного використання в ній нових технологічних можливостей – штучного інтелекту – фахівці поки не виявляють. При цьому компанії визнали, що поодинокі випадки використання російської пропаганди вже з'явилися.

В OpenAI зазначили, що вони завадили проведенню п'яти таємних кампаній впливу, організованих Росією, Китаєм, Іраном та Ізраїлем. Вони намагалися «маніпулювати громадською думкою чи впливати на політичні результати без розкриття справжньої особи чи намірів дійових осіб». У кампаніях використовувалися моделі OpenAI для створення текстів та зображень, які розміщувалися у Telegram, X та Instagram.

Виробник ChatGPT заявив, що видалив облікові записи, пов'язані з двома російськими операціями, що отримали назви Bad Grammer і Doppelganger. У їхньому змісті, по суті, не було нічого нового: в основному вони генерували контент про війну в Україні, зокрема США, НАТО і Євросоюз, що її представляє, в негативному світлі.

Крім того, було заблоковано китайську кампанію Spamouflage, іранську мережу під назвою International Union of Virtual Media та ізраїльську операцію Zero Zeno.

"Ваша будівля злетить у повітря! Це не жарт! Час пішов!": Одесит "шантажував" ДТЕК, вимагаючи включити світло, і поплатився

неділя, 30 червень 2024, 18:30

Правоохоронці затримали безробітного одесита 1970 року народження. Чоловік писав компанії "ДТЕК Одеські електромережі", що її офіс замінований, передають Патріоти України. "Будівля ОЕМ ДТЕК замінована! Якщо протягом 15 хвилин електропостачання не буде ...

А ви це знали? Як у СРСР з‘явилися "неперспективні" села і чому їх так назвали

неділя, 30 червень 2024, 18:10

Влада СРСР ухвалювала чимало сумнівних рішень, які призводили до негативних наслідків. Одним із них став поділ невеликих населених пунктів на "перспективні" та неперспективні, передають Патріоти України. . Поняття "неперспективні" села з’явилося в еко...