stomp Zorgen over mogelijke risico's van ChatGPT winnen aan kracht, maar is een pauze op AI een goede zet? - Verenig AI
Verbind je met ons

Gedachte leiders

Zorgen over mogelijke risico's van ChatGPT winnen aan kracht, maar is een pauze op AI een goede zet?

mm

gepubliceerd

 on

Terwijl Elon Musk en andere wereldwijde technologieleiders hebben opgeroepen tot een pauzeren in AI na de release van ChatGPT zijn sommige critici van mening dat een stopzetting van de ontwikkeling niet de oplossing is. AI-evangelist Andrew Pery van intelligent automatiseringsbedrijf ABBYY gelooft dat een pauze nemen hetzelfde is als de tandpasta terug in de tube doen. Hier vertelt hij ons waarom...

AI-toepassingen zijn alomtegenwoordig en hebben invloed op vrijwel elk facet van ons leven. Hoewel lovenswaardig, kan het ongeloofwaardig zijn om nu op de rem te trappen.

Er zijn zeker tastbare zorgen die vragen om meer regelgevend toezicht om de mogelijke schadelijke gevolgen ervan te beheersen.

Onlangs heeft de Italiaanse gegevensbeschermingsautoriteit het gebruik van ChatGPT in het hele land tijdelijk geblokkeerd vanwege privacykwesties met betrekking tot de manier van verzamelen en verwerken van persoonlijke gegevens die worden gebruikt om het model te trainen, evenals een schijnbaar gebrek aan waarborgen, waardoor kinderen worden blootgesteld aan reacties "absoluut niet passend bij hun leeftijd en bewustzijn.”

De Europese Consumentenorganisatie (BEUC) dringt er bij de EU op aan om de mogelijke schadelijke gevolgen van grootschalige taalmodellen te onderzoeken, gezien “de groeiende bezorgdheid over hoe ChatGPT en soortgelijke chatbots mensen kunnen misleiden en manipuleren. Deze AI-systemen hebben meer publieke controle nodig, en de overheid moet de controle over hen opnieuw bevestigen.

In de VS, de Centrum voor AI en Digitaal Beleid heeft een klacht ingediend bij de Federal Trade Commission dat ChatGPT in strijd is met sectie 5 van de Federal Trade Commission Act (FTC Act) (15 USC 45). De basis van de klacht is dat ChatGPT naar verluidt niet voldoet aan de leiding opgesteld door de FTC voor transparantie en uitlegbaarheid van AI-systemen. Er werd verwezen naar de erkenningen van ChatGPT van verschillende bekende risico's waaronder het in gevaar brengen van privacyrechten, het genereren van schadelijke inhoud en het verspreiden van desinformatie.

Ondanks onderzoek wijst het nut van grootschalige taalmodellen zoals ChatGPT op het potentieel ervan duistere kant. Het is bewezen dat het onjuiste antwoorden oplevert, aangezien het onderliggende ChatGPT-model is gebaseerd op deep learning-algoritmen die gebruik maken van grote trainingsdatasets van internet. In tegenstelling tot andere chatbots gebruikt ChatGPT taalmodellen op basis van deep learning-technieken die tekst genereren die lijkt op menselijke gesprekken, en het platform “komt tot een antwoord door een reeks gissingen te doen, wat een deel van de reden is waarom het verkeerde antwoorden kan beargumenteren alsof ze waren helemaal waar.”

Bovendien is bewezen dat ChatGPT vooringenomenheid accentueert en versterkt, wat resulteert in "antwoorden die discrimineren op geslacht, ras en minderheidsgroepen, iets dat het bedrijf probeert te verzachten." ChatGPT kan ook een bonanza zijn voor snode actoren om nietsvermoedende gebruikers uit te buiten en hun privacy en bloot te stellen aan zwendel aanvallen.

Deze zorgen waren voor het Europees Parlement aanleiding om een commentaar hetgeen de noodzaak versterkt om de huidige bepalingen van het ontwerp verder te versterken EU-wet inzake kunstmatige intelligentie, (AIA) die nog steeds in afwachting is van ratificatie. Het commentaar wijst erop dat het huidige ontwerp van de voorgestelde verordening zich richt op zogenaamde beperkte AI-toepassingen, bestaande uit specifieke categorieën van AI-systemen met een hoog risico, zoals werving, kredietwaardigheid, werkgelegenheid, wetshandhaving en geschiktheid voor sociale diensten. De ontwerp-AIA-verordening van de EU heeft echter geen betrekking op AI voor algemeen gebruik, zoals grote taalmodellen die meer geavanceerde cognitieve capaciteiten bieden en die "een breed scala aan intelligente taken kunnen uitvoeren". Er wordt gepleit om de reikwijdte van de ontwerpverordening uit te breiden met een aparte, risicovolle categorie van AI-systemen voor algemene doeleinden, waarbij ontwikkelaars worden verplicht om rigoureuze ex ante conformiteitstests uit te voeren voordat dergelijke systemen op de markt worden gebracht en om hun prestaties continu te monitoren voor mogelijke onverwachte schadelijke outputs.

Een bijzonder nuttig stukje onderzoek vestigt het bewustzijn op deze kloof dat de EU-AIA-regelgeving "in de eerste plaats gericht is op conventionele AI-modellen, en niet op de nieuwe generatie waarvan we vandaag getuige zijn."

Het beveelt vier strategieën aan die toezichthouders zouden moeten overwegen.

  1. Eis van ontwikkelaars van dergelijke systemen dat ze regelmatig rapporteren over de doeltreffendheid van hun risicobeheerprocessen om schadelijke output te verminderen.
  2. Bedrijven die grootschalige taalmodellen gebruiken, moeten verplicht worden om aan hun klanten bekend te maken dat de inhoud door AI is gegenereerd.
  3. Ontwikkelaars moeten zich abonneren op een formeel proces van gefaseerde releases, als onderdeel van een raamwerk voor risicobeheer, ontworpen om te beschermen tegen mogelijk onvoorziene schadelijke gevolgen.
  4. Leg de verantwoordelijkheid bij ontwikkelaars om "het risico bij de wortels te beperken" door "proactief de trainingsdataset te controleren op verkeerde voorstellingen".

Een factor die de risico's verbonden aan ontwrichtende technologieën bestendigt, is de drang van innovators om first mover-voordeel te behalen door een 'eerst verzenden en later repareren'-bedrijfsmodel te hanteren. Terwijl OpenAI enigszins is transparant over de potentiële risico's van ChatGPT, ze hebben het vrijgegeven voor breed commercieel gebruik met een "koper pas op" verantwoordelijkheid voor gebruikers om de risico's zelf af te wegen en te nemen. Dat kan een onhoudbare benadering zijn, gezien de alomtegenwoordige impact van conversatie-AI-systemen. Proactieve regelgeving in combinatie met robuuste handhavingsmaatregelen moet van het grootste belang zijn bij het omgaan met een dergelijke ontwrichtende technologie.

Kunstmatige intelligentie doordringt al bijna elk onderdeel van ons leven, wat betekent dat een pauze in de ontwikkeling van AI een groot aantal onvoorziene obstakels en gevolgen met zich mee kan brengen. In plaats van plotseling de remmen los te laten, zouden de industrie en wetgevende spelers te goeder trouw moeten samenwerken om uitvoerbare regelgeving vast te stellen die geworteld is in mensgerichte waarden zoals transparantie, verantwoordingsplicht en eerlijkheid. Door te verwijzen naar bestaande wetgeving zoals de AIA, kunnen leiders in de private en publieke sector een grondig, wereldwijd gestandaardiseerd beleid ontwerpen dat snode toepassingen voorkomt en nadelige gevolgen beperkt, waardoor kunstmatige intelligentie binnen de perken blijft van het verbeteren van menselijke ervaringen.

Andrew Pery is een AI Ethics Evangelist bij intelligent automatiseringsbedrijf ABBYY. Pery heeft meer dan 25 jaar ervaring in het leiden van productmanagementprogramma's voor toonaangevende wereldwijde technologiebedrijven. Zijn expertise ligt in intelligente automatisering van documentprocessen en procesintelligentie met een bijzondere expertise in AI-technologieën, applicatiesoftware, gegevensprivacy en AI-ethiek. Hij heeft een Master of Law-graad met onderscheiding van de Northwestern University Pritzker School of Law en is een Certified Data Privacy Professional.