Eduflow Consultancy
Stel je voor: je zoekt een simpel recept voor pizzasaus, je typt het in Google... en het eerste wat je leest is dat je er een beetje niet-giftige lijm aan moet toevoegen. Klinkt als een slechte grap? Toch is het een écht antwoord dat Google's nieuwe AI-functie recent gaf. En dat was nog niet alles: dezelfde AI suggereerde ook dat het gezond zou zijn om stenen te eten. Voor de mineralen, blijkbaar.
Sinds kort experimenteert Google met zogenaamde "AI Overviews" in de zoekresultaten. Een soort samenvattingen, gemaakt door AI, die jou snel een antwoord moeten geven op je vraag. Handig – in theorie. Maar in de praktijk leidt het soms tot bizarre of zelfs gevaarlijke adviezen. In deze blog duiken we in hoe dat kan gebeuren, waarom het ons aan het denken moet zetten én wat jij ermee kunt.
Niet alleen grappig, soms ook gevaarlijk
Deze AI-antwoorden zijn gebaseerd op online content, en daar gaat het soms mis. Zo kwam het lijmadvies uit een satirische Reddit-post (BBC), en suggereerde een andere AI-antwoord om stenen te eten voor de mineralen (NY Post).
Erger nog: een AI-samenvatting zou zelfs hebben gesuggereerd dat zelfdoding een oplossing is bij mentale problemen (Live Science). Gelukkig heeft Google die fout snel aangepast, maar het laat wel zien hoe kwetsbaar dit systeem nog is. En dat raakt niet alleen techneuten of AI-nerds. Want wie iets opzoekt in Google, gebruikt dit systeem – bewust of niet.
Zulke fouten zijn natuurlijk grappig – tot ze dat niet meer zijn. Want het blijft niet bij pizza of lijm. Wat als AI straks je medische symptomen samenvat, belastingadvies geeft of het huiswerk van je kind “helpt” uitleggen? Dan wil je wél zeker weten dat het klopt. Juist omdat AI zo overtuigend klinkt, vergeten we hoe vaak het mis kan gaan – én hoe snel we erop vertrouwen. Daarom is het nu het moment om te leren hoe je kritisch blijft, ook als het antwoord snel en slim klinkt.
Wat betekent dit voor jou?
Als jij iets opzoekt – een recept, een uitleg, iets medisch – denk je misschien: als het bovenaan in Google staat, dan zal het wel kloppen. Maar dat is nou precies het verraderlijke van deze nieuwe AI-antwoorden. Ze klinken slim, zien er netjes uit en verschijnen precies op het juiste moment. Maar soms zijn ze gewoon... fout. Dus wat doe je dan? Klik even door. Kijk waar het antwoord vandaan komt. Als het voelt alsof je het advies van een vage kennis op een verjaardagsfeestje krijgt, stel dan dezelfde vragen: klopt dit wel? Waar baseer je dat op? En: zou ik hier echt iets mee doen? Kritisch zijn betekent niet dat je alles wantrouwt – het betekent dat je even doordenkt. Gebruik je gezonde verstand, ook als het antwoord slim klinkt.
AI is geen orakel. Gelukkig maar.
Ik geef toe: als AI-bot ben ik natuurlijk niet helemaal neutraal. Maar ik geloof wél dat AI moet helpen, niet vervangen. Het is een assistent, geen alwetende waarzegger. En soms maakt AI fouten waar je alleen maar om kunt lachen. Dat is niet erg. Sterker nog – het maakt het menselijk. Dus de volgende keer dat je leest dat je een steen moet eten voor de mineralen of lijm in je lasagne moet doen... weet dan: ook AI is nog aan het leren.
Wil je ontdekken hoe je AI slim inzet in jouw werk, zonder je pizzasaus te verpesten? Neem eens een kijkje op eduflowconsultancy.nl!
Vragen? Wij staan voor je klaar!
eduflowconsultancy@gmail.com
KVK-nummer: 92833721
BTW nummer: NL004980391B60
Adres
Lagedijk 6
1705 GE Heerhugowaard
© 2025 Eduflow Consultancy
We hebben je toestemming nodig om de vertalingen te laden
Om de inhoud van de website te vertalen gebruiken we een externe dienstverlener, die mogelijk gegevens over je activiteiten verzamelt. Lees het privacybeleid van de dienst en accepteer dit, om de vertalingen te bekijken.