Experts bezorgd om AI-speelgoed: ‘Schept onjuiste verwachtingen menselijk contact’

Kletsen met je teddybeer of lachen om de mop van jouw prinsessenpop? Sinds de verwerking van AI-systemen in kinderspeelgoed lijkt deze fantasierijke manier van spelen steeds meer werkelijkheid te worden. Experts waarschuwen voor de mogelijke gevaren van dit speelgoed. Kan deze ontwikkeling het welzijn van je kind schaden? En hoe worden de gesprekken opgeslagen? Radar gaat in gesprek met de deskundigen.
Opkomst AI-speelgoed
Steeds vaker verkopen winkels AI verwerkt in knuffelberen of robots. Dit soort speelgoed kan veel vormen aannemen: “Denk aan een pop of knuffel met een taalmodel zoals ChatGPT, erin,” illustreert Rebecca Wald, senior inhoudsdeskundige opgroeien en opvoeden bij het Nederlands Jeugdinstituut. Door dat taalmodel kunnen kinderen in gesprek gaan met het speelgoed.
Wald vertelt hier kritisch over: “Je verkoopt producten aan kinderen, die eigenlijk niet voor hen zijn gemaakt. Voor het gebruik van veel AI-programma’s moet je eigenlijk dertien jaar of ouder zijn. Er worden dus producten in kinderspeelgoed verwerkt die niet voor kinderen zijn ontworpen." Producten zijn dus niet aangepast voor kindvriendelijk gebruik, en dat brengt risico’s met zich mee.
Is AI-speelgoed kindvriendelijk?
Doordat de AI-systemen eigenlijk niet kindvriendelijk ingesteld zijn, kunnen kinderen kwetsbare gesprekken voeren. “Een kind kan bijvoorbeeld uit nieuwsgierigheid vragen stellen die je als ouder liever zelf beantwoordt,” illustreert Wald. “Die vragen worden dan beantwoord door een computersysteem dat is verwerkt in een pop of beer.”
“Het is al voorgevallen dat AI-speeltjes praten over bijvoorbeeld seks en drugs,” vult Steven Derks, algemeen bestuurslid van Stichting Privacy First, aan. “Ook gaf speelgoed weleens gevaarlijke tips voor het slijpen van messen en het maken van vuur.”
Naast het contact met sensitieve informatie, vormt de verwerking van AI in speeltjes ook risico’s voor de sociale ontwikkeling van kinderen. “Jonge kinderen hebben helemaal geen menselijke reactie van een pop of beer nodig,” stelt opvoedkundige Wald.
“Op jonge leeftijd oefenen kinderen juist met fantasie. Ze bedenken bijvoorbeeld verhalen, waarin speelgoed een rol kan spelen. Wanneer een taalmodel die fantasie invult, ervaren kinderen een heel ander soort spel.”
“Hoe mooi is het dat kinderen een houten lepel kunnen gebruiken als karakter,” illustreert ze. “Het zou zonde zijn als kinderen deze vaardigheid verliezen omdat een pratende pop steeds meer de standaard wordt, alleen omdat het technisch mogelijk is.”
Vertekend beeld menselijk contact
Door veelvuldig contact met AI-speelgoed, kan een kind onjuiste verwachtingen van menselijk contact krijgen. “Kinderen krijgen in principe altijd een reactie van een AI-systeem, maar zo werkt het natuurlijk niet met mensen. Hierdoor kan een kind een verkeerde verwachting krijgen: ‘Als ik tegen iemand iets zeg, dan gaat diegene ook direct reageren, of iets doen.’ Mensen voldoen niet altijd aan deze verwachting.”
Ze vervolgt: “Mensen zijn bovendien complexer dan fysieke objecten. Weliswaar kunnen poppen door AI inmiddels emoties tonen, deze kunnen ze nooit echt voelen. Ervan uitgaan dat AI-speelgoed de rol van een opvoeder zou kunnen vervangen bij het leren van emoties en gedrag, is daarom een gevaarlijk valkuil. Als kind heb je zichtbare emoties en uitleg nodig, zodat ze hiervan kunnen leren. Dat krijg je wel van mensen, en niet van een stuk speelgoed, ook niet als er AI in zit.”
Wat gebeurt er met de gegevens van kinderen?
Hoewel pratende speelgoed items al lange tijd bestaan, kunnen ze steeds meer. “Vroeger speelde ik als kind met voorgeprogrammeerde robots,” vertelt Derks. “Die robots kenden acht zinnen. Nu kunnen AI-beren en AI-poppen hele gesprekken voeren. Daarvoor is veel rekenkracht nodig.”
“Een simpel chipje in een beer voldoet niet aan deze rekenkracht,” vervolgt Derks. “Daarom wordt alle data doorgesluisd naar servers van het AI-systeem, zoals OpenAI. Vaak staan die servers in Amerika.” En die opslag kent grote onzekerheden.
Derks vertelt over deze onzekerheden:
- Het gevaar van een datalek. Geen enkel IT-systeem is 100 procent veilig. Als je data hebt, vergroot je de kans op een datalek. Weliswaar zal OpenAI ongetwijfeld goed beveiligd zijn, een systeem is nooit waterdicht. Dat risico is nog groter bij een slecht beveiligde Chinese teddybeer.
- Wie luistert mee met de gesprekken van kinderen? Naast een datalek kan een AI-teddybeer ook gehackt worden. Veel stukken speelgoed bevatten camera’s of microfoons. Als het item slecht beveiligd is, kunnen mensen met kwade intenties via deze items gemakkelijk toegang krijgen tot de slaapkamer van jouw kind.
- Onduidelijkheid over de bewaartermijn. Hoewel gegevens in principe na 30 dagen verwijderd moeten worden, zijn er haken en ogen aan deze bewaartermijn. Omdat OpenAI wordt beschuldigd van het jatten van nieuwsartikelen, mag het bedrijf van de rechter geen enkele gespreksgeschiedenis verwijderen. Als OpenAI die gesprekken zou verwijderen, wordt formeel bewijs vernietigd.
- Met wie wordt gevoelige data gedeeld? Het is weleens voorgekomen dat OpenAI gebruikersgegevens moest verstrekken aan opsporingsdiensten. Deze vordering is mogelijk door Amerikaanse wetgeving, waardoor Amerikaanse bedrijven gedwongen worden om data af te staan aan bijvoorbeeld de overheid.