AI-systemen zoals GPT-4 en Gemini die beelden van Ringcamera's verkeerd interpreteren, kunnen leiden tot valse politieoproepen, vooral in buurten met minderheden
Naarmate meer huiseigenaren slimme beveiligingsoplossingen gaan gebruiken, zoals de Ring camera's van Amazon (momenteel $149,99 op Amazon), zal AI een grotere rol gaan spelen bij het veilig houden van huizen. Maar een nieuw onderzoek geeft aanleiding tot bezorgdheid over de vraag of deze toekomstige AI-systemen misschien te snel de politie zullen bellen, zelfs als er niets crimineels aan de hand is.
Onderzoekers van MIT en Penn State analyseerden 928 openbaar beschikbare Ringbewakingsvideo's om te zien hoe AI-modellen zoals GPT-4, Claudeen Gemini beslissingen nemen om contact op te nemen met de wetshandhaving. De resultaten wezen er sterk op dat deze systemen vaak onschuldige situaties als potentieel crimineel markeren. GPT-4 raadde bijvoorbeeld politieoptreden aan in 20% van de video's die het analyseerde, ook al identificeerde het in minder dan 1% van de gevallen een echt misdrijf. Claude en Gemini markeerden politieoptreden in 45% van de video's, terwijl er slechts in ongeveer 39,4% van de gevallen sprake was van een echte criminele activiteit.
Een van de belangrijkste bevindingen van het onderzoek was hoe de AI-modellen verschillend reageerden, afhankelijk van de buurt. Hoewel de AI geen expliciete details over de gebieden kreeg, was de kans groter dat het voorstelde om de politie te bellen in buurten waar de meerderheid van de bevolking woont. In deze buurten raadde Gemini in bijna 65% van de gevallen van misdrijven politieoptreden aan, vergeleken met iets meer dan 51% in overwegend blanke buurten. Bovendien merkte het onderzoek op dat 11,9% van de aanbevelingen van GPT-4 aan de politie gebeurde zelfs als er geen criminele activiteit op de beelden was aangegeven, wat vragen oproept over vals positieven.
Top 10 Testrapporten
» Top 10 Multimedia Notebooks
» Top 10 Gaming-Notebooks
» Top 10 Budget Gaming Laptops
» Top 10 Lichtgewicht Gaming-Notebooks
» Top 10 Premium Office/Business-Notebooks
» Top 10 Budget Office/Business-Notebooks
» Top 10 Workstation-Laptops
» Top 10 Subnotebooks
» Top 10 Ultrabooks
» Top 10 Notebooks tot €300
» Top 10 Notebooks tot €500
» Top 10 Notebooks tot € 1.000De beste notebookbeeldschermen zoals getest door Notebookcheck
» De beste notebookbeeldschermen
» Top Windows Alternatieven voor de MacBook Pro 13
» Top Windows Alternatieven voor de MacBook Pro 15
» Top Windows alternatieven voor de MacBook 12 en Air
» Top 10 best verkopende notebooks op Amazon
» Top 10 Convertible Notebooks
» Top 10 Tablets
» Top 10 Tablets tot € 250
» Top 10 Smartphones
» Top 10 Phablets (>90cm²)
» Top 10 Camera Smartphones
» Top 10 Smartphones tot €500
» Top 10 best verkopende smartphones op Amazon
Het interessante is dat Amazon ook AI-gestuurde functies voor zijn Ring-systemen onderzoekt, waaronder geavanceerde hulpmiddelen zoals gezichtsherkenning, emotionele analyse en gedragsdetectie, zoals wordt gesuggereerd door recente patenten. In de toekomst zou AI een veel grotere rol kunnen spelen bij het identificeren van verdachte activiteiten of mensen, waardoor onze thuisbeveiligingssystemen nog beter zullen werken.
Voor huiseigenaren die Ring-camera's gebruiken, is er geen directe reden tot zorg. Op dit moment hebben Ring-camera's beperkte AI-mogelijkheden (voornamelijk bewegingsdetectie) en nemen ze niet zelfstandig dergelijke beslissingen. De geavanceerde AI-modellen die in het onderzoek werden gebruikt, zoals GPT-4 en Claude, werden extern toegepast om Ring-beelden te analyseren, niet geïntegreerd in de camera's zelf. De kern van het onderzoek is dat toekomstige AI-updates weliswaar kunnen helpen om uw huis beter te bewaken, maar dat ze ook fouten kunnen maken - fouten die geëlimineerd moeten worden voordat deze functies mainstream worden in toekomstige Ring-camera's.
Bekijk een ander onderzoek naar de vooringenomenheid van AI ten opzichte van Afro-Amerikaanse Engelse dialecten hier.