Notebookcheck Logo

Manus AI lanceert een algemene AI-agent die in staat is om complexe taken in de echte wereld uit te voeren, waaronder het maken van videogames

De algemene AI-agent van Manus AI voert complexe taken uit als een menselijke assistent. (Afbeeldingsbron: Manus AI)
De algemene AI-agent van Manus AI voert complexe taken uit als een menselijke assistent. (Afbeeldingsbron: Manus AI)
De Manus AI-agent combineert de capaciteiten van meerdere AI-modellen in een krachtige assistent voor werk en persoonlijke taken. Dankzij zijn vermogen om informatie op het internet op te zoeken, computers als een mens te besturen en informatie te synthetiseren, kan hij complexe vragen beantwoorden die veel gewone chatbots niet kunnen beantwoorden.

Manus AI heeft zijn nieuwe algemene AI-agent gelanceerd die in staat is om zelfstandig antwoorden te zoeken op complexe prompts door meerdere AI grote taalmodellen (LLM's) parallel te gebruiken. De AI is momenteel beschikbaar via door een uitnodiging aan te vragen.

Gangbare chatbots, zoals OpenAI ChatGPT, Microsoft CoPilot en Anthropic Claude, worden getraind op een vaste set gegevens, dus hun kennis is beperkt. Vragen zonder antwoorden in hun trainingsdataset kunnen niet worden beantwoord, hoewel sommige bedrijven proberen chatbots uit te breiden door ze toegang te geven tot het internet voor de meest recente informatie. Toch kunnen deze chatbots geen complexe vragen beantwoorden die probleemoplossing vereisen.

Sommige AI-bedrijven hebben geprobeerd dit aan te pakken door de AI stap voor stap problemen te laten doordenken, de gegevens die het online vindt te analyseren en een antwoord te laten samenstellen. OpenAI Deep Research is zo'n AI-agent die vorige maand werd uitgebracht, en Manus AI is de nieuwste.

In tegenstelling tot OpenAI gebruikt de agent van Manus meerdere AI LLM's, waardoor hij profiteert van de voordelen die elk van hen biedt. Prompts worden automatisch opgesplitst in kleinere taken waar parallel aan gewerkt wordt. Gebruikers kunnen de gedachtegang van de AI volgen terwijl deze automatisch stap voor stap aan problemen begint te werken. De agent kan niet alleen tekstantwoorden produceren, maar ook spreadsheets, interactieve grafieken, webpagina's en videospelletjes.

Hoewel de agent van Manus AI slechts 57,7% scoort op vragen van niveau 3 in de GAIA AI-benchmark, een test van vragen uit de echte wereld die zelfs mensen moeilijk kunnen beantwoorden, is de AI-agent in staat om eenvoudigere vragen van niveau 1 en 2 in meer dan 70% van de gevallen correct te beantwoorden. Volgens Manus AI presteert de agent beter dan andere AI die vandaag de dag in staat is om antwoorden op te zoeken.

Manus AI agent creëerde een werkend videospel toen hem werd gevraagd "Kun je voor mij een Super Mario spel maken maar dan in Minecraft stijl?". (Afbeelding bron: Manus AI)
Manus AI agent creëerde een werkend videospel toen hem werd gevraagd "Kun je voor mij een Super Mario spel maken maar dan in Minecraft stijl?". (Afbeelding bron: Manus AI)
Voorbeelden van complexe prompts die de Manus AI-agent gemakkelijk kan beantwoorden. (Afbeeldingsbron: Manus AI)
Voorbeelden van complexe prompts die de Manus AI-agent gemakkelijk kan beantwoorden. (Afbeeldingsbron: Manus AI)
Voorbeeldvragen van verschillende moeilijkheidsniveaus in de GAIA AI-benchmarktest. (Afbeeldingsbron: Mialon, G. et al. in "GAIA: een benchmark voor algemene AI-assistenten")
Voorbeeldvragen van verschillende moeilijkheidsniveaus in de GAIA AI-benchmarktest. (Afbeeldingsbron: Mialon, G. et al. in "GAIA: een benchmark voor algemene AI-assistenten")
De agent van Manus AI beantwoordt moeilijke vragen beter dan andere AI. (Afbeeldingsbron: Manus AI)
De agent van Manus AI beantwoordt moeilijke vragen beter dan andere AI. (Afbeeldingsbron: Manus AI)
Please share our article, every link counts!
Mail Logo
> Overzichten en testrapporten over laptops en mobieltjes > Nieuws > Nieuws Archief > Nieuws archieven 2025 03 > Manus AI lanceert een algemene AI-agent die in staat is om complexe taken in de echte wereld uit te voeren, waaronder het maken van videogames
David Chien, 2025-03-12 (Update: 2025-03-12)