Connect with us

Większość amerykańskich dyrektorów technicznych chce regulacji AI, ale kto powinien ją prowadzić?

Regulacje

Większość amerykańskich dyrektorów technicznych chce regulacji AI, ale kto powinien ją prowadzić?

mm

Podobnie jak lata 90. miały komercjalizację Internetu, lata 2000. smartfony, a lata 2010. rozwój mediów społecznościowych, lata 2020. należą do AI. Jak te wcześniejsze przełomy technologiczne, AI również zdaje się rozwijać szybciej niż mogą za nim nadążać regulatorzy i ustawodawcy. 

Bańka internetowa wybuchła w 1993 roku z uruchomieniem przeglądarki Mosaic, a dopiero w 1996 roku Kongres USA przyjął ustawę Telecommunications Act, pierwszą, która wyraźnie odnosiła się do Internetu. Podobnie, Apple przedstawił iPhone w 2007 roku, chociaż legislatorzy przyjęli ustawę 21st Century Communications and Video Accessibility Act w 2010 roku, wymagając, aby wszystkie smartfony miały funkcje dostępności. 

A chociaż „dekada mediów społecznościowych” z lat 2010. zaowocowała utworzeniem i rozwinięciem platform takich jak Facebook, WhatsApp, YouTube i Instagram, to dopiero w drugiej połowie dekady uchwalono ustawę FOSTA-SESTA, zaakceptowaną, która uczyniła platformy odpowiedzialnymi za świadome ułatwianie handlu ludźmi. Czy historia się powtórzy w przypadku AI? 

Podczas gdy AI stało się popularne po przełomowym wydaniu OpenAI ChatGPT w 2022 roku, jego ojczyzna, USA, jeszcze nie przyjęły federalnej legislacji w celu regulacji AI. USA zmieniły swoje stanowisko – z restrykcyjnego na deregulacyjne – wraz ze zmianą administracji. 

AI w USA: kwestia ponadpartyjna

Były prezydent Joe Biden Bezpieczna, bezpieczna i godna zaufania ustawa wymagała, aby agencje federalne w 2023 roku podjęły kroki w kierunku bezpieczeństwa AI, praw cywilnych, równości i przejrzystości. „Wykorzystywanie AI dla dobra i realizacja jego licznych korzyści wymaga złagodzenia jego znacznych ryzyk”, napisano w ustawie. 

W styczniu 2025 roku jednak obecny prezydent Donald Trump podpisał Usuwanie barier dla amerykańskiego przywództwa w sztucznej inteligencji, uchylił istniejące polityki i dyrektywy AI, „które działają jako bariery dla innowacji amerykańskiej AI, tworząc drogę dla Stanów Zjednoczonych, aby podjąć decydujące działania w celu utrzymania przywództwa na świecie w dziedzinie sztucznej inteligencji”. 

Obecna administracja, zatem, stara się przyspieszyć innowacje AI w USA poprzez deregulację, przeciwdziałając potencjalnym ryzykom poprzez inwestycje w badania i rozwój. Pozostaje jednak pytanie, czy to rząd powinien zajmować się tymi problemami. 

Dziś istnieją powszechne obawy dotyczące ryzyk związanych z AI, w tym etyki, zakłóceń i zaufania. Badanie z 2024 roku na temat wielostopniowych obaw wynikających z AI wykazało, że najpilniejsze obawy obejmują stronniczość, nadużycia, nieoczekiwane działanie maszyn, nierówność, lęk społeczny i zmiany w łańcuchach dostaw, by wymienić tylko kilka. 

Większość amerykańskich dyrektorów technicznych zgadza się z tym, ale podkreśla paradoks. Raport z września 2025 roku przygotowany przez Solvd, firmę doradczą i inżynieryjną AI, stwierdził, że chociaż 97% odpowiedzi od Chief Information Officers (CIO) i Chief Technology Officers (CTO) jest w pewnym stopniu zaniepokojonych nieetycznym użyciem AI, 87% uważa, że zbyt surowa regulacja AI może ograniczyć innowacje i stać się przewagą konkurencyjną. 

Główne obawy tych liderów są zgodne z tymi, które zostały zidentyfikowane w badaniu z 2024 roku: modele AI stają się tak potężne, że nie można ich kontrolować, aktorzy mogą wykorzystywać słabości AI, modele AI mają zbyt duży dostęp do danych firmy, a dezinformacja lub stronniczość, jaką może powodować ta technologia. 

Wśród 500 amerykańskich CIO i CTO w firmach o przychodach powyżej 500 mln USD, którzy wzięli udział w badaniu Solvd, 61% preferowało regulację publiczną, podczas gdy 36% opowiadało się za regulacją branżową. 

Regulacja branżowa mogłaby oznaczać model mieszany, odbiegający od publiczno-prywatnej dichotomii. Administracja Bidena, w rzeczywistości, negocjowała umowę z czołowymi dyrektorami technicznymi w 2023 roku, która określała dobrowolne zobowiązania dotyczące barier AI. Takie zobowiązania obejmowały zapewnienie, że produkty są bezpieczne przed ich publicznym uruchomieniem, tworzenie systemów, które stawiają bezpieczeństwo na pierwszym miejscu, oraz zdobywanie zaufania publicznego poprzez przejrzystość i ujawnianie możliwości, ograniczeń i obszarów odpowiedniego i niewłaściwego użycia systemów AI. 

Globalna rozmowa

Pomimo rozbieżności w preferencjach dyrektorów firm co do ram regulacyjnych publicznych lub branżowych, pozostaje fakt, że 82% z nich jest głównie odpowiedzialnych za wewnętrzne zarządzanie AI, zgodnie z Solvd. Tylko 8% respondentów wskazało na kierownictwo wyższego szczebla za wewnętrzną regulację AI, a 5% stwierdziło, że ich firmy mają dedykowaną radę etyki AI lub komitet compliance. 

Przedsiębiorstwa – i ich pracownicy – są więc złapane między oczekiwaniem na politykę publiczną, która może lub nie nastąpi, a działaniem w dużej mierze niezależnie od kierownictwa wyższego szczebla i zespołów szkolonych w etyce AI. 

Różne konteksty znalazły różne rozwiązania tego problemu. Unia Europejska (UE), na przykład, wyraźnie kontrastuje z deregulacyjnym podejściem administracji Trumpa poprzez ustawę AI UE, pierwszą kompleksową ustawę AI na świecie. Przyjęta w marcu 2024 roku, ustawa zakazała pewnych zastosowań AI, ustanowiła ramy oceny ryzyka i wymagała prawnie przejrzystości i komunikacji z użytkownikami. 

Inni idą za przykładem UE. Chile, lider AI w Ameryce Południowej, niedawno zaproponował ustawę regulującą AI, zainspirowaną ustawą AI UE. Chiny, z drugiej strony, w dużej mierze omijają te przeszkody, ponieważ ich system polityczny faworyzuje regulację sankcjonowaną przez państwo, dotacje i partnerstwa z prywatnymi firmami AI. Wyzwania Chin wynikają nie tyle z dyktatu regulacyjnego, co z ryzyka cenzury i ingerencji państwa w innowacje.  

Jednak USA, jako globalny lider AI, z pewnością ukształtuje ton przyszłych ram regulacyjnych. 

Końcowe myśli

Wdrożenie i innowacje AI stały się przewagą konkurencyjną w niemal każdej branży na świecie. Jednak bez wyjaśnienia regulacji i zmieniającej się polityki, dyrektorzy techniczni muszą ustalić własne bariery, być odpowiedzialnymi za ochronę konsumentów, zdobywanie ich zaufania wśród powszechnego strachu przed AI i innowacjami – wszystko jednocześnie. 

Pomimo obaw z różnych sektorów, że surowe regulacje mogą hamować innowacje, może być odwrotnie. Według RegulatingAI, organizacji non-profit z USA, której celem jest badanie skrzyżowania AI i regulacji, niepewność dotycząca egzekwowania prawa AI hamuje jej przyjęcie, co opóźnia realizację korzyści ekonomicznych, brakuje inwestycji, a firmy mają trudności ze skalowaniem marż.

„Wyjaśnienie, jak systemy AI są definiowane w kontekście regulacyjnym, jest kluczowe, ponieważ niejasność w definicjach dodaje do wyzwań związanych z zgodnością”, zauważyła organizacja non-profit.  

Podobnie Solvd podkreślił wagę przejęcia przez firmy obecnej regulacyjnej niepewności. „Teraz jest idealny moment dla firm, aby ustanowić skuteczne wewnętrzne zarządzanie, zanim zewnętrzni regulatorzy wkroczą i potencjalnie nałożą mniej elastyczne rozwiązania”, stwierdził raport firmy.  

W tym kontekście innowatorzy AI w USA stają przed bezprecedenskimi wyzwaniami: ryzykiem reputacyjnym za nieprzyjęcie polityki nadzoru oraz możliwością luk w zgodności, gdy regulacja zostanie wprowadzona. 

Jednak pojawia się również szansa. Z perspektywy Internetu, smartfonów i mediów społecznościowych, teraz jest dokładnie odpowiedni moment, aby spojrzeć w przyszłość i zbudować ekosystem, który balansuje innowacje z odpowiedzialnością, wspiera zaufanie i przygotowuje się na nieuchronność regulacji.

Salomé jest dziennikarką pochodzącą z Medellín i starszym reporterem w Espacio Media Incubator. Z wykształceniem historyczkim i politycznym, praca Salomé podkreśla społeczną istotność nowych technologii. Była prezentowana w Al Jazeera, Latin America Reports i The Sociable, między innymi.