WISKUNDE EN AI: WIS EN WAARACHTIG!

Feb 6, 2025 | Uncategorized

GASTBLOG

Wiskunde en AI: Wis en Waarachtig!

Als amateurwiskundige volg ik de ontwikkelingen rond AI met grote belangstelling. De droom om een wiskundeprofessor met één muisklik op te roepen voor al mijn vragen komt steeds dichterbij. Een extreem geduldige AI-professor die ik eindeloos ‘domme’ vragen kan stellen totdat ik het eindelijk begrijp. We zijn er nog niet, maar het gaat sneller dan ooit.

Voor mijn projecten heb ik analytische vaardigheden nodig op het gebied van orthogonale polynomen en de bijbehorende hypergeometrische functies. Een veelvoorkomend probleem daarbij is het omzetten van oneindige integralen of sommen van deze functies naar een elegantere, gesloten vorm (“closed form”). Vóór de opkomst van AI gebruikte ik voornamelijk CAS-tools zoals Mathematica en Maple om deze uitdrukkingen te vereenvoudigen. Maar met de komst van ChatGPT-o1 en recentelijk ChatGPT-o3-mini-high en DeepSeek-r1, lukt dat steeds beter met AI—soms zelfs beter dan de traditionele CAS-tools. Toch stuit ik regelmatig op merkwaardige fenomenen.

AI en de illusie van zekerheid

Een eerste uitdaging is dat AI getraind kan zijn op incorrecte of onvolledige informatie. Zo heb ik eens uren verspild aan het verifiëren van een formule die AI in een boek uit 1976 had gevonden—een formule die uiteindelijk onjuist bleek. De fout stond in de errata, maar die leken niet in de trainingsdata opgenomen te zijn. Het meest frappante was echter niet de fout zelf, maar het onwrikbare zelfvertrouwen waarmee AI de incorrecte formule bleef verdedigen. Dit voedde mijn twijfel over de betrouwbaarheid van dergelijke systemen: hoe kan een AI met zoveel zekerheid iets beweren dat aantoonbaar fout is?

Toen ik AI vervolgens vroeg om beide zijden van de vergelijking numeriek te evalueren, gebeurde er iets vreemds. AI genereerde een Python-programma om de waarden uit te rekenen—en dat werkte perfect. De resultaten kwamen overeen met mijn eigen berekeningen. Maar tot mijn verbijstering bleef AI volhouden: “Zie je wel? De uitkomsten zijn gelijk.” Dit terwijl de numerieke waarden juist significant verschilden!

Vanuit menselijk perspectief zou je kunnen zeggen dat AI ‘liegt’, en dat was ook mijn eerste reactie. Maar een andere interpretatie is dat het systeem simpelweg vasthoudt aan de waarheid zoals die in de (foutieve) trainingsdata staat. Hoeveel bewijs ik ook aandroeg, AI weigerde te accepteren dat de numerieke berekeningen correct waren en de oorspronkelijke analyse fout.

Gokwerk en hallucinaties

Een ander opvallend fenomeen is dat AI-systemen soms simpelweg lijken te gokken. Dit komt vooral voor bij DeepSeek r1. Deze AI’s laten hun denkproces keurig stap voor stap zien, maar als een probleem te complex wordt, verschijnen er plotseling ‘hersenspinsels’ als: “Ik heb al veel tijd besteed zonder resultaat, dus ik zal dit maar als waarschijnlijke uitkomst aan de gebruiker melden.” Het gevolg? Een uitkomst die totaal niet klopt, maar met een verbazingwekkend zelfvertrouwen gepresenteerd wordt.

AI als wiskundig gereedschap

Dit soort fouten zijn gelukkig uitzonderingen en doen zich voornamelijk voor bij zeer complexe vragen. Voor eenvoudigere problemen en verzoeken om heldere uitleg werken AI-systemen uitstekend. Het is bovendien fascinerend om de resultaten van verschillende AI-modellen, zoals ChatGPT-o3 en DeepSeek-r1, met elkaar te vergelijken. Hun methodes en invalshoeken kunnen compleet verschillen, maar toch leiden ze vaak tot dezelfde conclusie. Dit biedt als gebruiker een groot voordeel: ik kan het meest elegante bewijs kiezen.

We zijn er nog niet, maar de vooruitgang gaat razendsnel. Opvallend is het dedain waarmee sommige professionele wiskundigen en programmeurs AI afdoen als ‘leuk speelgoed’. Ik hoor vaak uitspraken als: “Ach, het systeem kan niet eens fatsoenlijk…” of “Dit is gewoon de zoveelste hype, dat waait wel weer over.” Dit doet mij denken aan de jarenlange overtuiging dat een computer nooit het spel Go zou kunnen winnen van een mens. Toch gebeurde het, en de beste menselijke speler, Lee Sedol, heeft inmiddels de handdoek in de ring gegooid.

Conclusie

Wiskunde en AI worden steeds meer met elkaar verweven. De tijd waarin wiskunde niet meer zonder AI kan, nadert snel. Maar de neiging van AI om foutieve uitkomsten met onwankelbare zekerheid te presenteren, maakt dat het woord ‘waar-achtig’ soms net iets té letterlijk genomen wordt.

Zullen de toekomstige AI-generaties deze problemen oplossen?
Wis en waarachtig!

R.A. Dwars