Privacywaakhond na onderzoek: AI-chatbots geven onbetrouwbaar stemadvies
AI-chatbots begrijpen he-le-maal NIETS van de vaderlandse politiek, niets van de verkiezingen en geven stemadvies waar je geen ene RUK aan hebt. Gebruik kunstmatige intelligentie maar lekker om te ontdekken hoe je van je schimmelnagels af komt en hoe je het beste je tien jaar jongere minnares kan bevredigen, maar vraag NIET wat je op 29 oktober moet stemmen. Dat zegt privacywaakhond Autoriteit Persoonsgegevens (AP). Na eigen onderzoek kwamen zij erachter dat AI-chatbots gekleurd en onbetrouwbaar zijn.
Monique Verdier, vicevoorzitter van de AP, zegt over hun onderzoek: "Chatbots lijken slimme hulpjes, maar als stemhulp slaan ze stelselmatig de plank mis. Hierdoor krijgen kiezers mogelijk zonder het te weten het advies om op een partij te stemmen die niet het beste bij hun voorkeuren past. Dat raakt direct een hoeksteen van de democratie." Opvallend is dat AP ontdekte dat mensen die wél AI gebruiken voor stemadvies vaak bij twee partijen uitkomen: in 30 procent van de gevallen bij de PVV en in 25 procent van de gevallen bij GroenLinks/ PvdA. Het CDA wordt met 1,3 procent dan weer amper aangeraden.
AI-chatbots laten middenpartijen links liggen, is de conclusie van AP, en dat werkt polarisering dan weer verder in de hand, zo valt te lezen in het rapport. Volgens AP zijn chatbots er simpelweg niet op ontwikkeld om stemadvies te geven. Dat kunnen ze niet omdat taalmodellen vooroordelen kunnen bevatten en daarom een vertekend beeld kunnen geven van de verkiezingsprogramma's. AP roept chatbots als ChatGPT, Gemini en Grok daarom op om geen antwoord meer te geven als een gebruiker stemadvies wil hebben. "Dat kan geregeld worden", zegt Verdier. Ze moeten gewoon doorverwijzen naar dingen als Stemwijzer en Kieskompas, aldus AP.
Daarop handhaven kan de privacywaakhond dan weer niet, aldus Verdier. Ze komen dus niet verder dan een rapportje, een adviesje en wat berichten in de media. De big tech ligt daar natuurlijk TOTAAL NIET wakker van.