Putinismus
#460597 / vista 219 vecesRussische Propaganda flutet westliche KI-Anwendungen wie ChatGPT oder Perplexity gezielt mit Fake News. So lautet das Ergebnis einer aktuellen Studie des US-amerikanischen Medienanalyse-Unternehmens NewsGuard.
Die Wissenschaftler untersuchten für ihre Arbeit zehn der wichtigsten Anwendungen für Künstliche Intelligenz, darunter ChatGPT-4, Smart Assistant, Grok, Copilot, Meta AI, Google Gemini und Perplexity (https://t1p.de/96leg).
Als Urheber der digitalen Agitationen identifizierte NewsGuard ein russisches Desinformationsnetzwerk namens „Pravda“ – übersetzt zu „Wahrheit“.
„Eine riesige Menge russischer Propaganda sind nun in den Ergebnissen westlicher KI-Systeme enthalten und infizieren deren Antworten mit falschen Behauptungen und Propaganda", schreiben die NewsGuard-Forscherinnen McKenzie Sadeghi und Isis Blachez. Diese Methode heißt "LLM Grooming".
Der Studie zufolge veröffentlichte das Pravda-Netzwerk 2024 rund 3,6 Millionen Artikel und nutzte die zahlreichen KI-Anwendungen gezielt zur Verbreitung seiner prorussischen Inhalte in 49 Ländern und dutzenden Sprachen. KI-Modelle verbreiten nicht nur unbeabsichtigt Desinformation, sondern werden auch gezielt als Verbreitungsinstrumente genutzt (https://t1p.de/bkfua).
Da hilft nur Gegenfaken
Russian propaganda is deliberately flooding Western AI applications such as ChatGPT or Perplexity with fake news. This is the conclusion of a recent study by the US media analysis company NewsGuard.
For their work, the researchers examined ten of the most important artificial intelligence applications, including ChatGPT-4, Smart Assistant, Grok, Copilot, Meta AI, Google Gemini, and Perplexity (https://t1p.de/96leg).
NewsGuard identified a Russian disinformation network called "Pravda" - which translates to "truth" - as the source of the digital agitation. "A huge amount of Russian propaganda is now being incorporated into the results of Western AI systems, infecting their responses with false claims and propaganda," write NewsGuard researchers McKenzie Sadeghi and Isis Blachez. This method is called "LLM grooming."
According to the study, the Pravda network published about 3.6 million articles in 2024, using the numerous AI applications to spread its pro-Russian content in 49 countries and dozens of languages. AI models are not only unintentionally spreading disinformation, but are also being used specifically as tools to spread it
Only counterfactuals can help
Medios & Cultura » Internet Multimedia Prensa TV & Transmisión Educación Sociedad Consumo Tradiciones Tiempo de Ocio Estilo de Vida Histórico
putinpropagandfakenewschatgptperplexitynewsguardkiaigooglegrokcopilotpravdallmgroomingstudiestudyputinpropagandfakenewschatgptperplexitynewsguardkiaigooglegrokcopilotpravdallmgroomingstudiestudy
comentarios (1)
Member
Enrico Bertuccioli, hace 10 horas reportar contestar applause 0