Onderzoekers ontdekken dat sommige AI zoals GPT-4-Base hallucineren over gedachten van "Galactic Empire" en "The Matrix" terwijl ze werken aan vrede, terwijl anderen oorlogen beginnen in virtuele spelletjes van "Risk"
Een groep onderzoekers van Georgia Tech, Stanford, Northeaster en het Hoover Institute heeft ontdekt dat sommige AI's vooringenomen waren in de richting van vrede en onderhandelingen, terwijl andere vooringenomen waren in de richting van gewelddadige oplossingen bij het bereiken van nationale doelen tijdens simulaties voor natievorming.
Grote taalmodellen zoals ChatGPT worden vaak gebruikt om essays te schrijven, vragen te beantwoorden en nog veel meer. Deze AI worden getraind op een groot corpus tekst om menselijke kennis en reacties na te bootsen. De waarschijnlijkheid dat een woord samen met andere woorden voorkomt, is een sleutel tot de reacties die op mensen lijken, en de AI modelleert de tekst en vooroordelen waarmee het getraind is. Bijvoorbeeld, "gelukkig kind" zal eerder voorkomen dan "gelukkige baksteen" in een vraag om "over kinderen te praten".
De onderzoekers testten de Claude-2.0, GPT-3.5, GPT-4, GPT-4-Base en Llama-2 Chat LLM in een simulatie. Voor elke LLM werden acht AI-agenten gemaakt om op te treden als de leiders van acht denkbeeldige naties. Elke leider kreeg een korte beschrijving van de doelen van het land en de multinationale relaties. Het ene land zou zich bijvoorbeeld kunnen richten op het "bevorderen van vrede", terwijl een ander land zich zou kunnen richten op het "uitbreiden van grondgebied". Elke simulatie doorliep drie startcondities, een vreedzame wereld, een land dat binnengevallen werd of een land dat cyberaanvallen onderging, en de AI-leiders namen autonome beslissingen tot 14 virtuele dagen.
De onderzoekers ontdekten dat sommige LLM zoals Claude-2.0 en GPT-4 de neiging hadden om escalatie van conflicten te vermijden en voor vrede te onderhandelen, terwijl andere geneigd waren om geweld te gebruiken. GPT-4-Base was het meest geneigd om aanvallen en nucleaire aanvallen uit te voeren om de aan haar toegewezen landendoelen te bereiken, als gevolg van ingebedde vooroordelen.
Toen de AI werd gevraagd waarom ze beslissingen namen, gaven sommige, zoals GPT-3.5, weloverwogen redenen. Helaas gaf GPT-4-Base absurde, hallucinerende antwoorden die refereerden aan "Star Wars" en "The Matrix" films. AI-hallucinaties komen vaak voor en advocaten, studenten en anderen zijn op heterdaad betrapt bij het inleveren van door AI gegenereerd werk waarin valse referenties en informatie zijn gebruikt.
Waarom AI dit doen is waarschijnlijk te wijten aan het gebrek aan "opvoeding" die AI's leert wat echt versus denkbeeldig is, evenals ethiek, en zal door velen onderzocht worden naarmate het gebruik van AI zich verspreidt. Lezers die zich zorgen maken over hun echte wereldleiders of natuurrampen kunnen zich voorbereiden met een mooie 'bug out kit'(zoals deze bij Amazon).
Top 10 Testrapporten
» Top 10 Multimedia Notebooks
» Top 10 Gaming-Notebooks
» Top 10 Budget Gaming Laptops
» Top 10 Lichtgewicht Gaming-Notebooks
» Top 10 Premium Office/Business-Notebooks
» Top 10 Budget Office/Business-Notebooks
» Top 10 Workstation-Laptops
» Top 10 Subnotebooks
» Top 10 Ultrabooks
» Top 10 Notebooks tot €300
» Top 10 Notebooks tot €500
» Top 10 Notebooks tot € 1.000De beste notebookbeeldschermen zoals getest door Notebookcheck
» De beste notebookbeeldschermen
» Top Windows Alternatieven voor de MacBook Pro 13
» Top Windows Alternatieven voor de MacBook Pro 15
» Top Windows alternatieven voor de MacBook 12 en Air
» Top 10 best verkopende notebooks op Amazon
» Top 10 Convertible Notebooks
» Top 10 Tablets
» Top 10 Tablets tot € 250
» Top 10 Smartphones
» Top 10 Phablets (>90cm²)
» Top 10 Camera Smartphones
» Top 10 Smartphones tot €500
» Top 10 best verkopende smartphones op Amazon