Notebookcheck Logo

DARPA geeft tools voor deepfake-detectie vrij en start gezamenlijke uitdagingen om meer te ontwikkelen

DARPA geeft deepfake-tools vrij om neppe AI-foto's, -stemmen en -nieuws tegen te gaan. (Bron: DARPA)
DARPA geeft deepfake-tools vrij om neppe AI-foto's, -stemmen en -nieuws tegen te gaan. (Bron: DARPA)
DARPA heeft haar hulpmiddelen voor het detecteren van deepfakes, ontwikkeld in haar Semantic Forensics-programma om AI-bedreigingen tegen te gaan, vrijgegeven. Bijna twee dozijn tools helpen bij het detecteren van deepfake foto's en video's en AI-gegenereerde tekst en spraak. Samenwerkende AI FORCE-uitdagingen die elke vier weken worden vrijgegeven, moedigen openbare onderzoekers aan om innovatieve oplossingen te helpen ontwikkelen voor de generatieve AI-dreiging.

DARPA (US Defense Advanced Research Projects Agency) heeft zijn hulpmiddelen voor het detecteren van deepfakes, ontwikkeld in zijn Semantic Forensics (SemaFor) programma, vrijgegeven voor het publiek. Het agentschap heeft bijna twee dozijn tools beschikbaar gesteld onder permissieve of open licenties om deepfake foto's en video's te detecteren, evenals AI-gegenereerde tekst en spraak. Om verdere ontwikkeling aan te moedigen, zal er elke vier weken een reeks gezamenlijke uitdagingen worden vrijgegeven in het kader van het AI Forensics Open Research Challenge Evaluations (AI FORCE) programma om nieuwe tools en algoritmen te helpen ontwikkelen om de AI-dreiging tegen te gaan.

De doos van Pandora voor AI werd geopend toen Google-ingenieur Blake Lemoine in 2022 beweerde dat Google's LaMDA AI wist dat het gevoelig was. Ongeacht hoe kunstmatig leven wordt gedefinieerd, kunnen gebruikers van AI zeker zien dat de mogelijkheden ervan enorm zijn en vaak beter dan die van mensen. Lezers die The Terminator of Ghost in the Shell hebben gezien, zullen ook inzien dat de dreiging van AI, of deze nu door gebruikers of uit zichzelf wordt geïnitieerd, groot is.

De missie van DARPA "om cruciale investeringen te doen in baanbrekende technologieën voor de nationale veiligheid" heeft ertoe geleid dat het agentschap het probleem van AI-bedreigingen heeft aangepakt in het kader van zijn SemaFor-programma. Het agentschap heeft een Analytic Catalog van 19 componenten ontwikkeld, waar in de loop van de tijd nog meer componenten aan toegevoegd zullen worden. Alle onderdelen zijn open-sourced in een poging om de noodzakelijke anti-AI hulpmiddelen onder het publiek te verspreiden.

Deze hulpmiddelen omvatten code en algoritmen die zijn ontwikkeld om AI-bedreigingen te detecteren, zoals nepnieuws en tekst die door AI op Twitter en elders is geplaatst, nepnieuws en tekst die door AI op Twitter en elders is geplaatst op Twitter en elders, valse oproepen van president Bidenen valse pausfoto's gemaakt door generatieve tools zoals Midjourney.

DARPA hoopt ook samen te werken met openbare onderzoekers en ontwikkelaars via het AI FORCE-programma door elke vier weken een nieuw interessegebied aan te pakken om innovatie aan te moedigen. Lezers die counter-AI tools willen ontwikkelen hebben een snelle Nvidia grafische kaart nodig(zoals deze bij Amazon).

Deepfake verdedigingstechnologie klaar voor commercialisering, overgang

Om de overgang van semantische forensische technologieën naar de industrie en de overheid te bevorderen, lanceert DARPA inspanningen die de verdediging tegen gemanipuleerde media versterken

[email protected]/14/2024

De dreiging van gemanipuleerde media is gestaag toegenomen naarmate geautomatiseerde manipulatietechnologieën toegankelijker worden en sociale media een ideale omgeving blijven bieden voor het delen van virale inhoud.

De snelheid, schaal en reikwijdte waarmee massale desinformatiecampagnes zich kunnen ontvouwen, vereisen computationele verdediging en geautomatiseerde algoritmen om mensen te helpen onderscheiden welke inhoud echt is en wat gemanipuleerd of gesynthetiseerd is, waarom en hoe.

Via het Semantic Forensics (SemaFor) programma, en voorheen het Media Forensics programma, hebben de onderzoeksinvesteringen van DARPA in het detecteren, toeschrijven en karakteriseren van gemanipuleerde en gesynthetiseerde media, bekend als deepfakes, geresulteerd in honderden analyses en methoden die organisaties en individuen kunnen helpen zich te beschermen tegen de veelheid aan bedreigingen van gemanipuleerde media.

Met SemaFor in de laatste fase hebben de investeringen van DARPA de ontwikkelingsrisico's systematisch verlaagd - en zo de weg vrijgemaakt voor een nieuw tijdperk van verdediging tegen de toenemende dreiging van deepfakes. Nu roept het agentschap de bredere gemeenschap op - inclusief de commerciële industrie en de academische wereld die onderzoek doen in deze ruimte - om deze investeringen te benutten.

Om deze overgang te ondersteunen, lanceert het agentschap twee nieuwe inspanningen om de bredere gemeenschap te helpen het momentum van de verdediging tegen gemanipuleerde media voort te zetten.

De eerste bestaat uit een analytische catalogus die open bronnen bevat die onder SemaFor zijn ontwikkeld voor gebruik door onderzoekers en de industrie. Naarmate mogelijkheden zich ontwikkelen en beschikbaar komen, zullen ze aan deze opslagplaats worden toegevoegd.

De tweede is een open onderzoeksinspanning van de gemeenschap genaamd AI Forensics Open Research Challenge Evaluation (AI FORCE), die tot doel heeft innovatieve en robuuste modellen voor machinaal leren, of deep learning, te ontwikkelen die nauwkeurig synthetische door AI gegenereerde afbeeldingen kunnen detecteren. Via een reeks mini-uitdagingen vraagt AI FORCE deelnemers om modellen te bouwen die onderscheid kunnen maken tussen authentieke afbeeldingen, inclusief afbeeldingen die mogelijk gemanipuleerd of bewerkt zijn met behulp van niet-AI methoden, en volledig synthetische, door AI gegenereerde afbeeldingen. Deze activiteit gaat van start in de week van 18 maart en wordt gelinkt aan de SemaFor programmapagina. Als u op de hoogte gehouden wilt worden, kunt u zich aanmelden voor de nieuwsbrief van het Information Innovation Office op https://lp.constantcontactpages.com/su/9rZHGPf voor de nieuwsbrief van het Information Innovation Office.

Volgens onderzoekers van DARPA en SemaFor is er een gezamenlijke inspanning nodig van de commerciële sector, mediaorganisaties, externe onderzoekers en ontwikkelaars en beleidsmakers om oplossingen te ontwikkelen en te implementeren die de bedreigingen van gemanipuleerde media bestrijden. SemaFor levert de hulpmiddelen en methoden die nodig zijn om mensen in dit probleemgebied te helpen.

"Onze investeringen hebben een opportuniteitsruimte gecreëerd die op het juiste moment komt, nodig is en klaar is om te groeien," zei Dr. Wil Corvey, programmamanager Semantic Forensics van DARPA. "Met de hulp van de industrie en de academische wereld over de hele wereld is het Semantic Forensics-programma klaar om te delen wat we zijn begonnen om het ecosysteem te versterken dat nodig is om authenticiteit in een digitale wereld te verdedigen."

Ga voor meer informatie over de bovengenoemde inspanningen en bronnen naar https://www.darpa.mil/program/semantic-forensics en https://semanticforensics.com/.

Voor meer informatie over het SemaFor-programma en een overzicht van de resulterende technologieën, kunt u de aflevering van Voices from DARPA over "Demystifying Deepfakes" bekijken op https://www.darpa.mil/news-events/2023-06-16

Please share our article, every link counts!
> Overzichten en testrapporten over laptops en mobieltjes > Nieuws > Nieuws Archief > Nieuws archieven 2024 06 > DARPA geeft tools voor deepfake-detectie vrij en start gezamenlijke uitdagingen om meer te ontwikkelen
David Chien, 2024-06- 3 (Update: 2024-06- 3)