Anslut dig till vårt nätverk!

reglering

LAION i ett öppet brev till Europaparlamentet uppmanar till att skydda AI med öppen källkod i Europa

mm
Uppdaterad on

Laion (The Large Scale Artificial Intelligence Open Network), och andra kända forskningsinstitutioner, har publicerat en öppet brev riktat till Europaparlamentet. Detta brev betonar de oundvikliga negativa följderna av utkast till AI-lag kommer att ha på forskning och utveckling med öppen källkod (FoU) inom området artificiell intelligens (AI).

Brevet understryker den viktiga roll som FoU med öppen källkod spelar för att garantera säkerheten, säkerheten och konkurrenskraften för AI i hela Europa, samtidigt som man varnar för att hämma sådant banbrytande arbete.

Brevet tar upp följande som skisserad av LAION.

Vikten av öppen källkod AI

Brevet beskriver tre huvudskäl till varför AI med öppen källkod är värt att skydda:

  1. Säkerhet genom transparens: AI med öppen källkod främjar säkerheten genom att göra det möjligt för forskare och myndigheter att granska modellprestanda, identifiera risker och fastställa begränsningar eller motåtgärder.
  2. Tävling: AI med öppen källkod tillåter små och medelstora företag att bygga vidare på befintliga modeller och driva produktivitet, snarare än att förlita sig på ett fåtal stora företag för viktig teknik.
  3. Säkerhet: Offentliga och privata organisationer kan anpassa modeller med öppen källkod för specialiserade applikationer utan att dela känslig data med egna företag.

Oro med utkastet till AI-lagen

Utkastet till AI-lag kan komma att införa nya krav på grundmodeller, vilket skulle kunna påverka öppen källkod FoU inom AI negativt. Brevet hävdar att "en storlek passar alla"-regler kommer att kväva öppen källkod FoU och kan:

  • Förankra proprietära gatekeepers, ofta stora företag, till nackdel för forskare och utvecklare med öppen källkod
  • Begränsa den akademiska friheten och förhindra det europeiska forskarsamhället från att studera modeller av offentlig betydelse
  • Minska konkurrensen mellan modellleverantörer och driv på investeringar i AI utomlands

Rekommendationer till Europaparlamentet

Det öppna brevet ger tre viktiga rekommendationer:

  1. Se till att FoU med öppen källkod kan följa AI-lagen: Lagen bör främja öppen källkod FoU och erkänna skillnaderna mellan AI-modeller med sluten källkod som erbjuds som en tjänst och AI-modeller som släpps som öppen källkod. Där så är lämpligt bör lagen undanta modeller med öppen källkod från bestämmelser avsedda för modeller med sluten källkod.
  2. Ställ krav proportionella mot risk: Lagen bör införa regler för stiftelsemodeller som står i proportion till deras faktiska risk. Ett ramverk som passar alla kan göra det omöjligt att använda lågriskmodeller och modeller med öppen källkod i Europa.
  3. Etablera offentliga forskningsfaciliteter för beräkningsresurser: EU bör inrätta storskaliga superdatoranläggningar för AI-forskning, vilket gör det möjligt för det europeiska forskarsamhället att studera grundmodeller med öppen källkod under kontrollerade förhållanden med offentlig tillsyn.

Framtiden för AI i Europa

Brevet avslutas med en uppmaning till Europaparlamentet att överväga de punkter som tagits upp och främja en lagstiftningsmiljö som stöder forskning och utveckling med öppen källkod. Detta tillvägagångssätt kommer att främja säkerhet genom transparens, driva innovation och konkurrens och påskynda utvecklingen av en suverän AI-kapacitet i Europa.

Med många uppskattade anhängare, inklusive European Laboratory for Learning and Intelligent Systems (ELLIS), Pan-European AI Network of Excellence och German AI Association (KI-Bundesverband), fungerar brevet som en kraftfull påminnelse om vikten av att skydda öppen källkod AI för Europas framtid.

supportrar

  • European Laboratory for Learning and Intelligent Systems (ELLIS) – Pan-European AI Network of Excellence
  • German AI Association (KI-Bundesverband) – Med mer än 400 företag, det största AI-nätverket i Tyskland
  • Prof. Jürgen Schmidhuber: Vetenskaplig chef för det schweiziska AI Lab IDSIA (USI & SUPSI), medgrundare och chefsforskare av NNAISENSE, uppfinnare av LSTM Networks
  • Prof. Sepp Hochreiter: JKU Linz, uppfinnare av LSTM Networks
  • Prof. Bernhard Schölkopf: Direktör, Max Planck Institute for Intelligent Systems och ELLIS Institute, Tübingen, Tyskland
  • Prof. Serge Belongie: Köpenhamns universitet; Direktör, Pioneer Center for AI
  • Prof. Andreas Geiger: University of Tübingen och Tübingen AI Center
  • Prof. Irina Rish: Full professor vid Université de Montréal, Canada Excellence Research Chair (CERC) i autonom AI och Canada CIFAR AI Chair, kärnmedlem i Mila – Quebec AI Institute.
  • Prof. Antonio Krüger: VD för det tyska forskningscentret för AI (DFKI) och professor vid Saarlands universitet
  • Prof. Kristian Kersting: Hel professor vid Darmstadts tekniska universitet och meddirektör, Hessian Center for AI (hessian.AI)
  • Jörg Bienert: VD för German AI Association, CPO för Alexander Thamm GmbH
  • Patrick Schramowski: Forskare vid German Center for Artificial Intelligence (DFKI) och Hessian Center for AI (hessian.AI)
  • Dr Jenia Jitsev: Labbledare vid Juelich Supercomputing Center, Research Center Juelich, Helmholtz Association, ELLIS-medlem
  • Dr Sampo Pyysalo: Forskare vid Åbo universitet, Finland
  • Robin Rombach: Medutvecklare av Stable Diffusion, doktorand vid LMU München
  • Prof. Michael Granitzer: Ordförande för Data Science University of Passau, Tyskland och koordinator för OpenWebSearch.eu
  • Prof Dr Jens Meiler: Leipzig University, ScaDS.AI Center for Scalable Data Analytics and Artificial Intelligence
  • Prof. Dr. Martin Potthast: Leipzig University, ScaDS.AI Center for Scalable Data Analytics and Artificial Intelligence och OpenWebSearch.EU
  • Prof. Dr. Holger Hoos: Alexander von Humboldt professor i AI vid RWTH Aachen University (Tyskland) och professor i maskininlärning vid Universiteit Leiden (Nederländerna)
  • Prof. Dr. Henning Wachsmuth: Ordförande för Natural Language Processing vid Institutet för artificiell intelligens, Leibniz University Hannover
  • Prof. Dr. Wil van der Aalst: Alexander von Humboldt professor i process- och datavetenskap vid RWTH Aachen University och chefsforskare vid Celonis
  • Prof. Dr. Bastian Leibe: Ordförande för datorseende vid RWTH Aachen University (Tyskland)
  • Prof. Dr. Martin Grohe: Ordförande för logik och teorin om diskreta system, RWTH University
  • Prof. Ludwig Schmidt: Paul G. Allen School of Computer Science & Engineering, University of Washington
  • Dr Morten Irgens: Vicerektor, Kristiania, medgrundare och styrelseledamot i CLAIRE (Confederation of Laboratories of AI Research in Europe), Adra (AI, Data and Robotics Association) och NORA (det norska AI Research Consortium)
  • Prof. Dr. Hector Geffner: Alexander von Humboldt professor i AI vid RWTH Aachen University (Tyskland), och Wallenberg gästprofessor i AI vid Linköpings universitet, Sverige
  • Prof. Dr Hilde Kuehne: Goethe University Frankfurt (Tyskland), MIT-IBM Watson AI Lab (USA)
  • Prof. Gerhard Lakemeyer, Ph.D.: Chef för Knowledge-Based Systems Group och ordförande för datavetenskapsavdelningen, RWTH Aachen University, Tyskland
  • Sebastian Nagel: Crawl Engineer, Common Crawl, Konstanz, Tyskland

Även om det inte officiellt finns på supporterlistan, stöder Unite.AI detta också Öppet brev.

En av grundarna av unite.AI och en medlem av Forbes Technology Council, Antoine är en futurist som brinner för framtiden för AI och robotik.

Han är också grundare av Securities.io, en webbplats som fokuserar på att investera i disruptiv teknik.