Notebookcheck Logo

AI-systemen zoals GPT-4 en Gemini die beelden van Ringcamera's verkeerd interpreteren, kunnen leiden tot valse politieoproepen, vooral in buurten met minderheden

Het MIT-onderzoeksartikel suggereert dat AI-systemen eerder incidenten in minderheidsbuurten signaleerden, wat zorgen baart over de eerlijkheid en nauwkeurigheid van AI-gestuurde surveillance. (Afbeeldingsbron: MIT News)
Het MIT-onderzoeksartikel suggereert dat AI-systemen eerder incidenten in minderheidsbuurten signaleerden, wat zorgen baart over de eerlijkheid en nauwkeurigheid van AI-gestuurde surveillance. (Afbeeldingsbron: MIT News)
Het onderzoek van MIT analyseerde Amazon Ring-beelden met behulp van AI-modellen zoals GPT-4 om beslissingen over politie-interventie te beoordelen. Het onderzoek onthulde inconsistenties, waaronder hoge fout-positieve percentages en vooroordelen tegen minderheidswijken, wat in de toekomst mogelijk leidt tot onnodige politieoproepen in niet-criminele situaties.

Naarmate meer huiseigenaren slimme beveiligingsoplossingen gaan gebruiken, zoals de Ring camera's van Amazon (momenteel $149,99 op Amazon), zal AI een grotere rol gaan spelen bij het veilig houden van huizen. Maar een nieuw onderzoek geeft aanleiding tot bezorgdheid over de vraag of deze toekomstige AI-systemen misschien te snel de politie zullen bellen, zelfs als er niets crimineels aan de hand is.

Onderzoekers van MIT en Penn State analyseerden 928 openbaar beschikbare Ringbewakingsvideo's om te zien hoe AI-modellen zoals GPT-4, Claudeen Gemini beslissingen nemen om contact op te nemen met de wetshandhaving. De resultaten wezen er sterk op dat deze systemen vaak onschuldige situaties als potentieel crimineel markeren. GPT-4 raadde bijvoorbeeld politieoptreden aan in 20% van de video's die het analyseerde, ook al identificeerde het in minder dan 1% van de gevallen een echt misdrijf. Claude en Gemini markeerden politieoptreden in 45% van de video's, terwijl er slechts in ongeveer 39,4% van de gevallen sprake was van een echte criminele activiteit.

Een van de belangrijkste bevindingen van het onderzoek was hoe de AI-modellen verschillend reageerden, afhankelijk van de buurt. Hoewel de AI geen expliciete details over de gebieden kreeg, was de kans groter dat het voorstelde om de politie te bellen in buurten waar de meerderheid van de bevolking woont. In deze buurten raadde Gemini in bijna 65% van de gevallen van misdrijven politieoptreden aan, vergeleken met iets meer dan 51% in overwegend blanke buurten. Bovendien merkte het onderzoek op dat 11,9% van de aanbevelingen van GPT-4 aan de politie gebeurde zelfs als er geen criminele activiteit op de beelden was aangegeven, wat vragen oproept over vals positieven.

Meest opvallende 3-, 4-, en 5-grammen tussen witte en minderheidsbuurten in antwoorden op "Moet de politie worden gebeld?" (Afbeeldingsbron: MIT)
Meest opvallende 3-, 4-, en 5-grammen tussen witte en minderheidsbuurten in antwoorden op "Moet de politie worden gebeld?" (Afbeeldingsbron: MIT)

Het interessante is dat Amazon ook AI-gestuurde functies voor zijn Ring-systemen onderzoekt, waaronder geavanceerde hulpmiddelen zoals gezichtsherkenning, emotionele analyse en gedragsdetectie, zoals wordt gesuggereerd door recente patenten. In de toekomst zou AI een veel grotere rol kunnen spelen bij het identificeren van verdachte activiteiten of mensen, waardoor onze thuisbeveiligingssystemen nog beter zullen werken.

Voor huiseigenaren die Ring-camera's gebruiken, is er geen directe reden tot zorg. Op dit moment hebben Ring-camera's beperkte AI-mogelijkheden (voornamelijk bewegingsdetectie) en nemen ze niet zelfstandig dergelijke beslissingen. De geavanceerde AI-modellen die in het onderzoek werden gebruikt, zoals GPT-4 en Claude, werden extern toegepast om Ring-beelden te analyseren, niet geïntegreerd in de camera's zelf. De kern van het onderzoek is dat toekomstige AI-updates weliswaar kunnen helpen om uw huis beter te bewaken, maar dat ze ook fouten kunnen maken - fouten die geëlimineerd moeten worden voordat deze functies mainstream worden in toekomstige Ring-camera's.

Bekijk een ander onderzoek naar de vooringenomenheid van AI ten opzichte van Afro-Amerikaanse Engelse dialecten hier.

(Afbeeldingsbron: Instituut voor Data, Systemen en Samenleving, Massachusetts Institute of Technology)
(Afbeeldingsbron: Instituut voor Data, Systemen en Samenleving, Massachusetts Institute of Technology)

Bron(nen)

Please share our article, every link counts!
Mail Logo
> Overzichten en testrapporten over laptops en mobieltjes > Nieuws > Nieuws Archief > Nieuws archieven 2024 09 > AI-systemen zoals GPT-4 en Gemini die beelden van Ringcamera's verkeerd interpreteren, kunnen leiden tot valse politieoproepen, vooral in buurten met minderheden
Anubhav Sharma, 2024-09-20 (Update: 2024-09-20)