stomp Hoe om KI-etiek te operasionaliseer? - Verenig.AI
Verbinding met ons

Gedagte Leiers

Hoe om KI-etiek te operasionaliseer?

mm

Gepubliseer

 on

KI gaan oor die optimalisering van prosesse, nie om mense daaruit uit te skakel nie. Aanspreeklikheid bly deurslaggewend in die oorkoepelende idee dat KI mense kan vervang. Terwyl tegnologie en geoutomatiseerde stelsels ons gehelp het om beter ekonomiese uitsette in die afgelope eeu te behaal, kan dit werklik dienste, kreatiwiteit en diepgaande kennis vervang? Ek glo steeds dat hulle nie kan nie, maar hulle kan die tyd wat bestee word aan die ontwikkeling van hierdie gebiede optimaliseer.

Verantwoordbaarheid maak sterk staat op intellektuele eiendomsregte, voorsiening van die impak van tegnologie op kollektiewe en individuele regte, en versekering van die veiligheid en beskerming van data wat gebruik word in opleiding en deel terwyl nuwe modelle ontwikkel word. Soos ons voortgaan om te vorder in tegnologie, het die onderwerp van KI-etiek al hoe meer relevant geword. Dit laat belangrike vrae ontstaan ​​oor hoe ons KI reguleer en in die samelewing integreer terwyl ons potensiële risiko's tot die minimum beperk.

Ek werk nou saam met een aspek van KI—stemkloning. Stem is 'n belangrike deel van 'n individu se gelykenis en biometriese data wat gebruik word om stemmodelle op te lei. Die beskerming van gelykenis (regs- en beleidsvrae), die beveiliging van stemdata (privaatheidsbeleide en kuberveiligheid), en die vasstelling van die grense van stemkloningtoepassings (etiese vrae wat impak meet) is noodsaaklik om te oorweeg tydens die bou van die produk.

Ons moet evalueer hoe KI by die samelewing se norme en waardes aansluit. KI moet aangepas word om binne die samelewing se bestaande etiese raamwerk te pas, om te verseker dat dit nie bykomende risiko's inhou of gevestigde samelewingsnorme bedreig nie. Die impak van tegnologie dek gebiede waar KI een groep individue bemagtig terwyl ander uitgeskakel word. Hierdie eksistensiële dilemma ontstaan ​​in elke stadium van ons ontwikkeling en samelewingsgroei of agteruitgang. Kan KI meer disinformasie in inligting-ekosisteme inbring? Ja. Hoe bestuur ons daardie risiko op produkvlak, en hoe leer ons gebruikers en beleidmakers daaroor? Die antwoorde lê nie in die gevare van tegnologie self nie, maar in hoe ons dit in produkte en dienste verpak. As ons nie genoeg mannekrag in produkspanne het om verder te kyk en die impak van tegnologie te evalueer nie, sal ons vasgevang wees in 'n siklus om die gemors reg te maak.

Die integrasie van KI in produkte laat vrae ontstaan ​​oor produkveiligheid en die voorkoming van KI-verwante skade. Die ontwikkeling en implementering van KI moet veiligheid en etiese oorwegings prioritiseer, wat hulpbrontoewysing aan relevante spanne vereis.

Om die opkomende bespreking oor die operasionalisering van KI-etiek te fasiliteer, stel ek hierdie basiese siklus voor om KI eties op produkvlak te maak:

1. Ondersoek die wetlike aspekte van KI en hoe ons dit reguleer, indien regulasies bestaan. Dit sluit in die EU se Wet op KI, Digital Service Act, die Verenigde Koninkryk se aanlynveiligheidswetsontwerp en GDPR oor dataprivaatheid. Die raamwerke is aan die gang en benodig insette van voorlopers in die industrie (opkomende tegnologie) en leiers. Sien punt (4) wat die voorgestelde siklus voltooi.

2. Oorweeg hoe ons KI-gebaseerde produkte by die samelewing se norme aanpas sonder om meer risiko's in te stel. Beïnvloed dit inligtingsekuriteit of die werksektor, of maak dit inbreuk op kopiereg en IE-regte? Skep 'n krisis-scenario-gebaseerde matriks. Ek put dit uit my internasionale veiligheidsagtergrond.

3. Bepaal hoe om bogenoemde in KI-gebaseerde produkte te integreer. Namate KI meer gesofistikeerd raak, moet ons verseker dat dit ooreenstem met die samelewing se waardes en norme. Ons moet proaktief wees om etiese oorwegings aan te spreek en dit by KI-ontwikkeling en implementering te integreer. As KI-gebaseerde produkte, soos generatiewe KI, dreig om meer disinformasie te versprei, moet ons versagtende kenmerke instel, moderering, toegang tot kerntegnologie beperk en met gebruikers kommunikeer. Dit is noodsaaklik om KI-etiek- en -veiligheidspanne in KI-gebaseerde produkte te hê, wat hulpbronne en 'n maatskappyvisie vereis.

Oorweeg hoe ons tot wetlike raamwerke kan bydra en vorm. Beste praktyke en beleidsraamwerke is nie bloot gonswoorde nie; hulle is praktiese hulpmiddels wat help om nuwe tegnologie te funksioneer as hulpmiddels eerder as dreigende bedreigings. Om beleidmakers, navorsers, groot tegnologie en opkomende tegnologie bymekaar te bring is noodsaaklik vir die balansering van maatskaplike en sakebelange rondom KI. Regsraamwerke moet aanpas by die opkomende tegnologie van KI, om te verseker dat hulle individue en die samelewing beskerm, terwyl dit ook innovasie en vooruitgang bevorder.

4. Dink aan hoe ons bydra tot die wetlike raamwerke en vorm dit. Die beste praktyke en beleidsraamwerke is nie leë gonswoorde nie, maar redelik praktiese hulpmiddels om die nuwe tegnologie te laat werk as hulpmiddels, nie as dreigende bedreigings nie. Om beleidmakers, navorsers, groot tegnologie en opkomende tegnologie in een kamer te hê, is noodsaaklik om sosiale en sakebelange rondom KI te balanseer. Regsraamwerke moet aanpas by die opkomende tegnologie van KI. Ons moet verseker dat hierdie raamwerke individue en die samelewing beskerm terwyl dit ook innovasie en vooruitgang fasiliteer.

Opsomming

Dit is 'n baie basiese kring van die integrasie van Ai-gebaseerde opkomende tegnologieë in ons samelewings. Terwyl ons aanhou worstel met die kompleksiteite van KI-etiek, is dit noodsaaklik om toegewyd te bly om oplossings te vind wat veiligheid, etiek en maatskaplike welstand vooropstel. En dit is nie leë woorde nie maar die harde werk om daagliks alle legkaarte bymekaar te sit.

Hierdie woorde is gebaseer op my eie ervaring en gevolgtrekkings.

Anna is hoof van etiek en vennootskappe by Redenaar, 'n Emmy-bekroonde stemkloningtegnologie gebaseer in die Oekraïne. Anna is 'n voormalige beleidsadviseur by Reface, 'n KI-aangedrewe sintetiese media-toepassing en 'n tegnologiese medestigter van die teendisinformasie-instrument Cappture wat deur die Startup Wise Guys-versnellerprogram gefinansier word. Anna het 11 jaar ondervinding in veiligheids- en verdedigingsbeleide, tegnologieë en veerkragtigheidsbou. Sy is 'n voormalige navorsingsgenoot by die Internasionale Sentrum vir Verdediging en Sekuriteit in Tallinn en die Praagse Instituut vir Veiligheidstudies. Sy het ook groot Oekraïense maatskappye geadviseer oor veerkragtigheidsbou as deel van die Hibrid Warfare Task Force by Kyiv School of Economics.