Reglering
LAION i öppet brev till Europaparlamentet uppmanar till skydd av öppen källkods-AI i Europa

LAION (The Large Scale Artificial Intelligence Open Network), och andra välkända forskningsinstitutioner, har publicerat ett öppet brev adresserat till Europaparlamentet. Detta brev betonar de oundvikliga negativa konsekvenserna som utkastet till AI-lag kommer att ha på öppen källkods-forskning och utveckling (FoU) inom området artificiell intelligens (AI).
Brevet understryker den viktiga roll som öppen källkods-FoU spelar för att säkerställa säkerheten, säkerheten och konkurrenskraften för AI i Europa, samtidigt som man varnar för att hämma sådan banbrytande verksamhet.
Brevet behandlar följande punkter, som anges av LAION.
Öppen källkods-AI:s betydelse
Brevet redogör för tre huvudsakliga skäl till varför öppen källkods-AI är värd att skydda:
- Säkerhet genom transparens: Öppen källkods-AI främjar säkerheten genom att möjliggöra för forskare och myndigheter att granska modellprestanda, identifiera risker och etablera åtgärder eller motåtgärder.
- Konkurrens: Öppen källkods-AI möjliggör för små och medelstora företag att bygga på befintliga modeller och driva produktivitet, snarare än att förlita sig på ett fåtal stora företag för viktig teknologi.
- Säkerhet: Offentliga och privata organisationer kan anpassa öppen källkods-modeller för specialiserade tillämpningar utan att dela känslig data med proprietära företag.
Farhågor med utkastet till AI-lag
Utkastet till AI-lag kan införa nya krav för grundmodeller, vilket kan ha en negativ inverkan på öppen källkods-FoU inom AI. Brevet hävdar att “en storlek som passar alla”-regler kommer att hämma öppen källkods-FoU och kan:
- etablera proprietära grindvakter, ofta stora företag, till nackdel för öppen källkods-forskare och utvecklare
- begränsa den akademiska friheten och förhindra att den europeiska forskarsamhället studerar modeller av allmänt intresse
- minska konkurrensen mellan modellleverantörer och driva investeringar i AI utomlands
Rekommendationer för Europaparlamentet
Det öppna brevet lämnar tre viktiga rekommendationer:
- Säkerställ att öppen källkods-FoU kan följa AI-lagen: Lagen bör främja öppen källkods-FoU och erkänna skillnaderna mellan slutna källkods-AI-modeller som erbjuds som en tjänst och AI-modeller som släpps som öppen källkods-kod. Där det är lämpligt bör lagen undanta öppen källkods-modeller från regler som är avsedda för slutna källkods-modeller.
- Inför krav som är proportionella till risken: Lagen bör införa regler för grundmodeller som är proportionella till deras faktiska risk. Ett “en storlek som passar alla”-ramverk kan göra det omöjligt att införa lågrisk- och öppen källkods-modeller i Europa.
- Etablera offentliga forskningsanläggningar för beräkningsresurser: EU bör etablera storskaliga superdatoranläggningar för AI-forskning, vilket möjliggör för den europeiska forskarsamhället att studera öppen källkods-grundmodeller under kontrollerade förhållanden med offentlig tillsyn.
AI:s framtid i Europa
Brevet avslutas med en uppmaning till Europaparlamentet att överväga de punkter som tas upp och skapa en lagstiftningsmiljö som stöder öppen källkods-FoU. Detta tillvägagångssätt kommer att främja säkerhet genom transparens, driva innovation och konkurrens, och påskynda utvecklingen av en suverän AI-förmåga i Europa.
Med många ansedda supporter, inklusive European Laboratory for Learning and Intelligent Systems (ELLIS), Pan-European AI Network of Excellence och German AI Association (KI-Bundesverband), fungerar brevet som en kraftfull påminnelse om vikten av att skydda öppen källkods-AI för Europas framtid.
Supporter
- European Laboratory for Learning and Intelligent Systems (ELLIS) – Pan-European AI Network of Excellence
- German AI Association (KI-Bundesverband) – Med över 400 företag, det största AI-nätverket i Tyskland
- Prof. Jürgen Schmidhuber: Vetenskaplig direktör för Swiss AI Lab IDSIA (USI & SUPSI), medgrundare och chefsforskare för NNAISENSE, uppfinnare av LSTM-nätverk
- Prof. Sepp Hochreiter: JKU Linz, uppfinnare av LSTM-nätverk
- Prof. Bernhard Schölkopf: Direktör, Max Planck Institute for Intelligent Systems och ELLIS Institute, Tübingen, Tyskland
- Prof. Serge Belongie: University of Copenhagen; Direktör, Pioneer Centre for AI
- Prof. Andreas Geiger: University of Tübingen och Tübingen AI Center
- Prof. Irina Rish: Full professor vid Université de Montréal, Canada Excellence Research Chair (CERC) i Autonomous AI och Canada CIFAR AI Chair, kärnmedlem i Mila – Quebec AI Institute.
- Prof. Antonio Krüger: VD för German Research Center for AI (DFKI) och professor vid Saarland University
- Prof. Kristian Kersting: Full professor vid Technical University of Darmstadt och co-direktör, Hessian Center for AI (hessian.AI)
- Jörg Bienert: VD för German AI Association, CPO för Alexander Thamm GmbH
- Patrick Schramowski: Forskare vid German Center for Artificial Intelligence (DFKI) och Hessian Center for AI (hessian.AI)
- Dr. Jenia Jitsev: Labbchef vid Juelich Supercomputing Center, Research Center Juelich, Helmholtz Association, ELLIS-medlem
- Dr. Sampo Pyysalo: Forskningsledare vid University of Turku, Finland
- Robin Rombach: Co-utvecklare av Stable Diffusion, doktorand vid LMU Munich
- Prof. Michael Granitzer: Professor i datavetenskap vid University of Passau, Tyskland och samordnare för OpenWebSearch.eu
- Prof. Dr. Jens Meiler: Leipzig University, ScaDS.AI Center for Scalable Data Analytics and Artificial Intelligence
- Prof. Dr. Martin Potthast: Leipzig University, ScaDS.AI Center for Scalable Data Analytics and Artificial Intelligence, och OpenWebSearch.EU
- Prof. Dr. Holger Hoos: Alexander von Humboldt Professor i AI vid RWTH Aachen University (Tyskland) och professor i maskinlärande vid Universiteit Leiden (Nederländerna)
- Prof. Dr. Henning Wachsmuth: Professor i naturligt språkbehandling vid Institute of Artificial Intelligence, Leibniz University Hannover
- Prof. Dr. Wil van der Aalst: Alexander von Humboldt Professor i process- och datavetenskap vid RWTH Aachen University och chefsforskare vid Celonis
- Prof. Dr. Bastian Leibe: Professor i datorseende vid RWTH Aachen University (Tyskland)
- Prof. Dr. Martin Grohe: Professor i logik och teori för diskreta system, RWTH University
- Prof. Ludwig Schmidt: Paul G. Allen School of Computer Science & Engineering, University of Washington
- Dr Morten Irgens: Prorektor, Kristiania, medgrundare och styrelseledamot i CLAIRE (the Confederation of Laboratories of AI Research in Europe), Adra (the AI, Data and Robotics Association) och NORA (the Norwegian AI Research Consortium)
- Prof. Dr. Hector Geffner: Alexander von Humboldt Professor i AI vid RWTH Aachen University (Tyskland), och Wallenberg Guest Professor i AI vid Linköpings universitet, Sverige
- Prof. Dr. Hilde Kuehne: Goethe University Frankfurt (Tyskland), MIT-IBM Watson AI Lab (USA)
- Prof. Gerhard Lakemeyer, Ph.D.: Chef för Knowledge-based Systems Group och ordförande för datavetenskapsavdelningen, RWTH Aachen University, Tyskland
- Sebastian Nagel: Crawl Engineer, Common Crawl, Konstanz, Tyskland
Medan Unite.AI inte officiellt är med på listan över supporter, stöder Unite.AI också detta öppna brev.












