Science >> Wetenschap >  >> anders

Vraag en antwoord:Onderzoekers waarschuwen voor gevaar en roepen op tot een pauze bij het introduceren van AI op scholen

Credit:Universiteit van Colorado in Boulder

Op basisscholen in het basis- en voortgezet onderwijs in het hele land is een nieuwe soort goudkoorts aan de gang:klaslokalen in het hele land racen om de nieuwste hulpmiddelen voor kunstmatige intelligentie, zoals platforms die worden aangedreven door de chatbot ChatGPT, naar het klaslokaal te brengen.



Alex Molnar, directeur van het National Education Policy Center (NEPC) bij CU Boulder, ziet een gevaar in deze haast om AI op scholen te introduceren. Deze platforms, zo zei hij, maken gebruik van ondoorzichtige en doorgaans propriëtaire algoritmen, waardoor hun innerlijke werking mysterieus wordt voor zowel docenten, ouders als leerlingen.

"Wat je hebt is een zak vol beloften die AI zal waarmaken zoals beloofd", zegt Molnar, onderzoeksprofessor aan de School of Education. "Het probleem is dat er momenteel geen manier is om de claims onafhankelijk te beoordelen."

In een nieuw rapport benadrukken Molnar en zijn collega's de potentiële valkuilen van AI in het onderwijs en roepen ze op tot een onbepaalde "pauze" bij het integreren van AI in het onderwijs in het basis- en voortgezet onderwijs. Co-auteurs waren onder meer Ben Williamson van de Universiteit van Edinburgh in het Verenigd Koninkrijk en Faith Boninger, assistent-onderzoekshoogleraar onderwijs aan CU Boulder.

Molnar geeft zijn visie op waarom AI een riskante gok is voor het onderwijs, en wat bezorgde ouders en anderen kunnen doen om hierbij betrokken te raken.

Betekent nieuwe technologie risico's voor het basis- en voortgezet onderwijs?

Er zijn allerlei problemen geweest die verband houden met het gebruik van digitale platforms op scholen, zelfs vóór de wijdverbreide adoptie van kunstmatige intelligentie.

Studentgegevens zijn vaak niet goed beveiligd. Er zijn bijvoorbeeld allerlei soorten lekken geweest van externe leveranciers, en er is geen wet of effectief beleid dat hen aansprakelijk houdt. Er worden ook ontzettend veel bètatests uitgevoerd op scholen. Marketingclaims klinken goed, maar digitale platforms leveren vaak niet de beloofde resultaten op en zitten vol met technische problemen.

Digitale technologieën hebben het moeilijk of onmogelijk gemaakt om fundamentele vragen te beantwoorden, zoals:Wie bepaalt de inhoud van het curriculum die in deze platforms wordt ingebouwd? Wie beoordeelt hun werk?

Kan AI deze problemen verergeren?

Alle problemen die verband houden met digitale technologieën worden vaak versterkt door kunstmatige intelligentie.

Zogenaamde AI maakt gebruik van algoritmen en enorme hoeveelheden rekenkracht om resultaten te produceren op basis van talloze waarschijnlijkheidsberekeningen. Wat is bijvoorbeeld de kans dat het volgende woord in een reeks 'sap' is? Deze berekeningen leveren geen ‘waarheid’ of zelfs noodzakelijkerwijs nauwkeurigheid op. Ze produceren probabilistische output.

Momenteel ligt de constructie en werking van AI-algoritmen grotendeels buiten de publieke opinie en zonder enige publieke verantwoordelijkheid. Niettemin worden schoolmensen, zowel door marketeers als overheidsinstanties, ertoe aangezet om in de voorhoede van deze zogenaamde digitale revolutie te staan, waarbij steeds meer schoolprocessen worden overgedragen aan technologen met weinig of geen kennis van pedagogie of het schoolcurriculum.

Veel mensen noemen AI-tools een 'black box'. Wat betekent dat?

Om een ​​ouderwetse uitleg te gebruiken:stel je voor dat je zou zeggen:'Ik zou graag het aardrijkskundeboek van mijn kind willen zien.' Je zou kunnen zeggen:"Ik heb hier wat problemen." Je zou er met iemand over kunnen praten, iemand die deze kwesties mogelijk kan uitleggen. Maar met AI kun je dat niet doen.

Je kunt niet naar binnen gaan en bijvoorbeeld zeggen:"Hoe werkte de score hierop?" Het antwoord zou zijn:"Nou, dat weten we niet." "Hoe weten we dat deze inhoud juist is?" "Nou, dat weten wij ook niet."

Is de zorg dan dat AI beslissingen zou kunnen nemen in plaats van docenten of ouders?

U kunt AI gebruiken om u te helpen bepalen of een kind vals speelde. Je gebruikt het om te bepalen of een kind wel of niet in dit programma of dat programma moet zitten. Je kunt AI gebruiken om allerlei dingen over een kind te beslissen, en het kind wordt opgesloten met weinig of geen verhaal.

Ouders kunnen klagen zoveel ze willen. Ze kunnen nog steeds geen informatie krijgen over de basis voor een beslissing van AI, omdat de opdrachtgever die niet heeft. De leraar heeft het niet. De hoofdinspecteur heeft het niet. Het is verborgen achter een eigen gordijn van een particuliere verkoper.

U pleit voor een 'pauze' in het gebruik van AI op scholen. Hoe zou dat eruit zien?

De oplossing zou zijn dat de wetgevende macht van de staat, bij wet, in essentie het volgende zou zeggen:openbare scholen in deze staat mogen geen programma's voor kunstmatige intelligentie adopteren, tenzij en totdat die programma's zijn gecertificeerd door deze overheidsinstantie; ze zouden de entiteit moeten creëren. Zij heeft deze programma's beoordeeld. Er wordt gezegd dat ze veilig zijn voor gebruik, en er wordt gedefinieerd wat het juiste gebruik van het programma is en voor wie.

Met andere woorden:er mag niets in de scholen gebeuren totdat we over het wettelijke en regelgevende kader en de institutionele capaciteit beschikken om onafhankelijk AI-platforms te beoordelen die worden voorgesteld voor gebruik op scholen.

Wat kunnen ouders, of iemand anders, die zich zorgen maakt over dit probleem, doen?

Eis dat uw vertegenwoordigers deze kwesties serieus nemen – in de eerste plaats door wetgeving in te stellen voor een pauze in de adoptie van AI op scholen. Periode. Vervolgens kunnen ze hun vertegenwoordigers vragen een staatsentiteit op te richten die is ontworpen om het gebruik van AI op scholen te reguleren.

Dit is een politiek probleem. Dit is geen technisch probleem.

We hebben een lange geschiedenis van technologiebedrijven die er niet in slaagden hun eigen regels te volgen, die zelf lachwekkend ontoereikend zijn. Voor iedereen die serieus probeert uit te vinden hoe AI op een verantwoorde manier in het onderwijs kan worden gebruikt:als het niet over politieke actie gaat, dan praat het ook niet echt. De technologen zullen ons niet redden.

Meer informatie: Williamson, B., Molnar, A., en Boninger, F. (2024). Tijd voor een pauze:zonder effectief publiek toezicht zal AI op scholen meer kwaad dan goed doen. Boulder, CO:Nationaal Onderwijsbeleidscentrum. nepc.colorado.edu/publication/ai

Aangeboden door de Universiteit van Colorado in Boulder