Connect with us

Thought leaders

Zorgen over potentiële risico’s van ChatGPT nemen toe, maar is een pauze in AI een goede zet?

mm

Terwijl Elon Musk en andere wereldwijde techleiders hebben opgeroepen tot een pauze in AI na de release van ChatGPT, geloven sommige critici dat een halt in de ontwikkeling niet het antwoord is. AI-voorvechter Andrew Pery, van het intelligent automation bedrijf ABBYY, gelooft dat een pauze nemen net zo is als proberen om tandpasta terug in de tube te krijgen. Hier vertelt hij ons waarom…

AI-toepassingen zijn overal aanwezig, met een impact op vrijwel elk aspect van ons leven. Hoewel lovenswaardig, kan het nu remmen aanleggen onwaarschijnlijk zijn.

Er zijn zeker tastbare zorgen die oproepen tot verhoogde regulatoire toezicht om de potentiële schadelijke gevolgen in te perken.

Onlangs heeft de Italiaanse Gegevensbeschermingsautoriteit het gebruik van ChatGPT tijdelijk geblokkeerd in het hele land vanwege privacyzorgen met betrekking tot de manier van verzamelen en verwerken van persoonlijke gegevens die worden gebruikt om het model te trainen, evenals een kennelijke gebrek aan waarborgen, waardoor kinderen worden blootgesteld aan antwoorden “absoluut ongeschikt voor hun leeftijd en bewustzijn”.

De Europese Consumentenorganisatie (BEUC) dringt er bij de EU op aan om de potentiële schadelijke gevolgen van grote taalmodellen te onderzoeken, gezien “de zorgen die groeien over hoe ChatGPT en soortgelijke chatbots mensen kunnen misleiden en manipuleren. Deze AI-systemen hebben meer openbare controle nodig, en openbare autoriteiten moeten de controle over hen herstellen.”

In de VS heeft het Center for AI and Digital Policy een klacht ingediend bij de Federal Trade Commission dat ChatGPT artikel 5 van de Federal Trade Commission Act (FTC Act) (15 USC 45) schendt. De basis voor de klacht is dat ChatGPT naar verluidt niet voldoet aan de richtlijnen die door de FTC zijn vastgesteld voor transparantie en verklaring van AI-systemen. Er wordt verwezen naar de erkenning door ChatGPT van verschillende bekende risico’s, waaronder het schenden van privacyrechten, het genereren van schadelijke inhoud en het verspreiden van desinformatie.

De bruikbaarheid van grote taalmodellen zoals ChatGPT ten spijt, wijst onderzoek op de potentiële donkere kant. Het is bewezen dat het onjuiste antwoorden produceert, aangezien het onderliggende ChatGPT-model is gebaseerd op deep learning-algoritmen die grote trainingsdatasets van internet gebruiken. In tegenstelling tot andere chatbots, gebruikt ChatGPT taalmodellen op basis van deep learning-technieken die tekst genereren die lijkt op menselijke conversaties, en het platform “komt tot een antwoord door een reeks gissingen te maken, wat deel is van de reden waarom het verkeerde antwoorden kan betogen alsof ze volledig waar zijn”.

Bovendien is aangetoond dat ChatGPT de bias versterkt en vermeerdert, wat resulteert in “antwoorden die discrimineren tegen geslacht, ras en minderheidsgroepen, iets waar het bedrijf probeert iets aan te doen”. ChatGPT kan ook een goudmijn zijn voor nefaste actoren om onschuldige gebruikers te exploiteren, waardoor hun privacy in gevaar komt en hen blootstelt aan scam-aanvallen.

Deze zorgen hebben ertoe geleid dat het Europees Parlement een commentaar heeft gepubliceerd dat de noodzaak benadrukt om de huidige bepalingen van de ontwerp EU Artificial Intelligence Act (AIA) verder te versterken, die nog steeds in afwachting is van ratificatie. Het commentaar wijst erop dat de huidige ontwerp van de voorgestelde regelgeving zich richt op wat wordt genoemd narrow AI-toepassingen, bestaande uit specifieke categorieën van high-risk AI-systemen zoals werving, kredietwaardigheid, werkgelegenheid, handhaving van de wet en geschiktheid voor sociale diensten. Echter, de EU-ontwerp-AIA-regelgeving dekt geen algemene AI, zoals grote taalmodellen die geavanceerde cognitieve mogelijkheden bieden en die “een breed scala aan intelligente taken kunnen uitvoeren”. Er zijn oproepen om het bereik van de ontwerp-regelgeving uit te breiden tot een aparte, high-risk-categorie van algemene AI-systemen, waarbij ontwikkelaars verplicht worden om grondige ex ante-conformiteitstests uit te voeren voordat dergelijke systemen op de markt worden gebracht en hun prestaties continu te controleren op potentieel onverwachte schadelijke uitvoer.

Een bijzonder nuttig stuk onderzoek vestigt de aandacht op deze lacune dat de EU-AIA-regelgeving “primair gericht is op conventionele AI-modellen, en niet op de nieuwe generatie waarvan we getuige zijn vandaag”.

Het beveelt vier strategieën aan die regulators in overweging moeten nemen.

  1. Ontwikkelaars van dergelijke systemen moeten regelmatig rapporteren over de effectiviteit van hun risicobeheersingsprocessen om schadelijke uitvoer te mitigeren.
  2. Bedrijven die grote taalmodellen gebruiken, moeten verplicht worden om aan hun klanten te melden dat de inhoud door AI is gegenereerd.
  3. Ontwikkelaars moeten zich houden aan een formeel proces van gefaseerde releases, als onderdeel van een risicobeheersingskader, ontworpen om te beschermen tegen potentieel onvoorziene schadelijke resultaten.
  4. Leg de verantwoordelijkheid bij ontwikkelaars om “het risico te mitigeren bij de wortel” door “pro-actief de trainingsdataset te auditen op misrepresentaties”.

Een factor die de risico’s die samenhangen met disruptieve technologieën in stand houdt, is de drive van innovators om een eerste-mover-voordeel te behalen door een “ship first and fix later”-zakelijke model te hanteren. Terwijl OpenAI enigszins transparant is over de potentiële risico’s van ChatGPT, hebben ze het vrijgegeven voor brede commerciële gebruik met een “koper, wees gewaarschuwd”-verantwoordelijkheid voor gebruikers om de risico’s zelf te wegen en aan te nemen. Dat kan een onhoudbare aanpak zijn, gezien de alomtegenwoordige impact van conversational AI-systemen. Proactief reguleren, gekoppeld aan robuuste handhavingsmaatregelen, moet voorop staan bij het omgaan met een dergelijke disruptieve technologie.

Kunstmatige intelligentie doordringt reeds bijna elk deel van ons leven, wat betekent dat een pauze in AI-ontwikkeling een veelvoud aan onvoorziene obstakels en gevolgen kan impliceren. In plaats van plotseling de remmen aan te zetten, moeten industrie- en wetgevende spelers samenwerken in goed vertrouwen om actiegerichte regelgeving tot stand te brengen die geworteld is in mensgerichte waarden zoals transparantie, verantwoordelijkheid en eerlijkheid. Door te verwijzen naar bestaande wetgeving zoals de AIA, kunnen leiders in de private en openbare sectoren grondige, wereldwijd gestandaardiseerde beleidsmaatregelen ontwerpen die nefaste gebruiken zullen voorkomen en nadelige resultaten zullen mitigeren, waardoor kunstmatige intelligentie binnen de grenzen van het verbeteren van menselijke ervaringen blijft.

Andrew Pery is een AI Ethics Evangelist bij het wereldwijde intelligente automatiseringsbedrijf ABBYY. Hij heeft een Master of Law diploma met onderscheiding van de Northwestern University Pritzker School of Law en is een gecertificeerd Data Privacy Professional. Pery heeft meer dan 25 jaar ervaring met het leiden van tech managementprogramma's voor toonaangevende wereldwijde technologiebedrijven. Zijn expertise ligt op het gebied van intelligente documentprocesautomatisering en procesintelligentie met een bijzondere expertise in AI-technologieën, applicatiesoftware, gegevensbescherming en AI-ethiek.