การควบคุม
LAION ในจดหมายเปิดผนึกถึงรัฐสภายุโรปเรียกร้องให้ปกป้องโอเพ่นซอร์ส AI ในยุโรป
ไลออน (Arti ขนาดใหญ่fiเครือข่ายข่าวกรองสังคมเปิด)และสถาบันวิจัยที่มีชื่อเสียงอื่น ๆ ได้ตีพิมพ์ จดหมายเปิดผนึก จ่าหน้าถึงรัฐสภายุโรป จดหมายฉบับนี้เน้นย้ำถึงผลกระทบเชิงลบที่หลีกเลี่ยงไม่ได้ ร่าง พ.ร.บ. AI จะมีการวิจัยและพัฒนาโอเพ่นซอร์ส (R&D) ภายในขอบเขตของปัญญาประดิษฐ์ (AI)
จดหมายฉบับนี้เน้นย้ำถึงบทบาทที่สำคัญของ R&D แบบโอเพ่นซอร์สในการรับประกันความปลอดภัย ความปลอดภัย และความสามารถในการแข่งขันของ AI ทั่วทั้งยุโรป ในขณะเดียวกันก็เตือนไม่ให้ขัดขวางการทำงานที่ก้าวล้ำดังกล่าว
จดหมายมีข้อความดังต่อไปนี้ ระบุโดย LAION.
ความสำคัญของ AI แบบโอเพ่นซอร์ส
จดหมายสรุปเหตุผลหลักสามประการว่าทำไม AI แบบโอเพ่นซอร์สจึงควรค่าแก่การปกป้อง:
- ความปลอดภัยด้วยความโปร่งใส: AI แบบโอเพ่นซอร์สส่งเสริมความปลอดภัยโดยช่วยให้นักวิจัยและหน่วยงานตรวจสอบประสิทธิภาพของแบบจำลอง ระบุความเสี่ยง และกำหนดมาตรการบรรเทาหรือตอบโต้
- การแข่งขัน: AI แบบโอเพ่นซอร์สช่วยให้องค์กรขนาดเล็กถึงขนาดกลางสามารถสร้างแบบจำลองที่มีอยู่และขับเคลื่อนประสิทธิภาพการทำงาน แทนที่จะพึ่งพาบริษัทขนาดใหญ่เพียงไม่กี่แห่งสำหรับเทคโนโลยีที่จำเป็น
- การรักษาความปลอดภัย: องค์กรภาครัฐและเอกชนสามารถปรับโมเดลโอเพ่นซอร์สสำหรับแอปพลิเคชันเฉพาะโดยไม่ต้องแชร์ข้อมูลที่ละเอียดอ่อนกับบริษัทที่เป็นกรรมสิทธิ์
ข้อกังวลต่อร่าง พ.ร.บ. AI
ร่างกฎหมาย AI อาจแนะนำข้อกำหนดใหม่สำหรับโมเดลพื้นฐาน ซึ่งอาจส่งผลเสียต่อ R&D แบบโอเพ่นซอร์สใน AI จดหมายระบุว่ากฎ "หนึ่งขนาดเหมาะกับทุกคน" จะขัดขวาง R&D โอเพ่นซอร์ส และอาจ:
- ยึดอำนาจเฝ้าประตูที่เป็นกรรมสิทธิ์ซึ่งมักเป็นบริษัทขนาดใหญ่ เพื่อสร้างความเสียหายให้กับนักวิจัยและนักพัฒนาโอเพ่นซอร์ส
- จำกัดเสรีภาพทางวิชาการและป้องกันไม่ให้ชุมชนการวิจัยของยุโรปศึกษารูปแบบที่มีความสำคัญต่อสาธารณะ
- ลดการแข่งขันระหว่างผู้ให้บริการโมเดลและผลักดันการลงทุนด้าน AI ในต่างประเทศ
คำแนะนำสำหรับรัฐสภายุโรป
จดหมายเปิดผนึกเสนอคำแนะนำที่สำคัญสามประการ:
- ตรวจสอบให้แน่ใจว่า R&D แบบโอเพ่นซอร์สสามารถปฏิบัติตามพระราชบัญญัติ AI: กฎหมายควรส่งเสริม R&D แบบโอเพนซอร์ส และตระหนักถึงความแตกต่างระหว่างโมเดล AI แบบโอเพนซอร์สที่นำเสนอเป็นบริการ และโมเดล AI ที่เผยแพร่เป็นโค้ดแบบโอเพ่นซอร์ส พระราชบัญญัติควรยกเว้นโมเดลโอเพ่นซอร์สจากข้อบังคับที่มีไว้สำหรับโมเดลโอเพ่นซอร์ส ตามความเหมาะสม
- กำหนดข้อกำหนดตามสัดส่วนความเสี่ยง: พระราชบัญญัติควรกำหนดหลักเกณฑ์สำหรับแบบจำลองพื้นฐานที่เป็นสัดส่วนกับความเสี่ยงที่แท้จริง กรอบงาน "ขนาดเดียวเหมาะกับทุกคน" อาจทำให้เป็นไปไม่ได้ที่จะนำเสนอโมเดลโอเพ่นซอร์สที่มีความเสี่ยงต่ำในยุโรป
- สร้างสิ่งอำนวยความสะดวกการวิจัยสาธารณะสำหรับทรัพยากรการคำนวณ: สหภาพยุโรปควรจัดตั้งสิ่งอำนวยความสะดวกด้านการประมวลผลขั้นสูงขนาดใหญ่สำหรับการวิจัย AI ซึ่งช่วยให้ชุมชนการวิจัยของยุโรปสามารถศึกษาโมเดลพื้นฐานของโอเพ่นซอร์สได้ภายใต้สภาวะที่มีการควบคุมโดยมีการกำกับดูแลจากสาธารณะ
อนาคตของ AI ในยุโรป
จดหมายลงท้ายด้วยการเรียกร้องให้รัฐสภายุโรปพิจารณาประเด็นที่ยกขึ้นและส่งเสริมสภาพแวดล้อมทางกฎหมายที่สนับสนุน R&D แบบโอเพ่นซอร์ส แนวทางนี้จะส่งเสริมความปลอดภัยด้วยความโปร่งใส ขับเคลื่อนนวัตกรรมและการแข่งขัน และเร่งการพัฒนาขีดความสามารถของ AI ที่มีอำนาจอธิปไตยในยุโรป
ด้วยผู้สนับสนุนที่นับถือมากมาย รวมถึง European Laboratory for Learning and Intelligent Systems (ELLIS), Pan-European AI Network of Excellence และ German AI Association (KI-Bundesverband) จดหมายฉบับนี้ทำหน้าที่เป็นเครื่องเตือนใจอันทรงพลังถึงความสำคัญของการปกป้อง AI แบบโอเพ่นซอร์สสำหรับอนาคตของยุโรป
สนับสนุนการจัดงาน
- European Laboratory for Learning and Intelligent Systems (ELLIS) – เครือข่ายความเป็นเลิศด้าน AI ทั่วยุโรป
- German AI Association (KI-Bundesverband) – มีบริษัทมากกว่า 400 แห่ง ซึ่งเป็นเครือข่าย AI ที่ใหญ่ที่สุดในเยอรมนี
- ศ.เจอร์เก้น ชมิดฮูเบอร์: ผู้อำนวยการด้านวิทยาศาสตร์ของ Swiss AI Lab IDSIA (USI & SUPSI) ผู้ร่วมก่อตั้งและหัวหน้านักวิทยาศาสตร์ของ NNAISENSE ผู้ประดิษฐ์เครือข่าย LSTM
- ศ. เซปป์ โฮไครเทอร์: JKU Linz ผู้คิดค้นเครือข่าย LSTM
- ศาสตราจารย์ Bernhard Schölkopf: ผู้อำนวยการ Max Planck Institute for Intelligent Systems และ ELLIS Institute, Tübingen ประเทศเยอรมนี
- ศ.เซอร์เก เบลงจี: มหาวิทยาลัยโคเปนเฮเกน; ผู้อำนวยการ Pioneer Center for AI
- ศ.แอนเดรียส ไกเกอร์: มหาวิทยาลัย Tübingen และ Tübingen AI Center
- ศ.อิริน่า ริช: ศาสตราจารย์เต็มตัวที่ Université de Montréal, Canada Excellence Research Chair (CERC) in Autonomous AI และ Canada CIFAR AI Chair, สมาชิกหลักของ Mila – Quebec AI Institute
- ศ.อันโตนิโอ ครูเกอร์: ซีอีโอของ German Research Center for AI (DFKI) และศาสตราจารย์แห่งมหาวิทยาลัยซาร์ลันด์
- ศ. คริสเตียน เคิร์สติ้ง: ศาสตราจารย์เต็มตัวที่ Technical University of Darmstadt และผู้อำนวยการร่วม Hessian Center for AI (hessian.AI)
- ยอร์ก เบียนเลิร์ต: CEO of German AI Association, CPO ของ Alexander Thamm GmbH
- แพทริค ชราโมว์สกี้: นักวิจัยที่ German Center for Artificial Intelligence (DFKI) และ Hessian Center for AI (hessian.AI)
- ดร. เจเนีย จิตเซฟ: หัวหน้าห้องปฏิบัติการที่ Juelich Supercomputing Center, ศูนย์วิจัย Juelich, Helmholtz Association, สมาชิก ELLIS
- นพ. สัมโพ ปิยสะโล: นักวิจัยจากมหาวิทยาลัย Turku ประเทศฟินแลนด์
- โรบิน รอมบัค: ผู้ร่วมพัฒนา Stable Diffusion ผู้สมัครระดับปริญญาเอกที่ LMU มิวนิก
- ศ.ไมเคิล แกรนิตเซอร์: ประธาน Data Science University of Passau ประเทศเยอรมนี และผู้ประสานงาน OpenWebSearch.eu
- ศ.ดร.เจนส์ ไมเลอร์: มหาวิทยาลัยไลพ์ซิก, ศูนย์ ScaDS.AI สำหรับการวิเคราะห์ข้อมูลที่ปรับขนาดได้และปัญญาประดิษฐ์
- ศ.ดร.มาร์ติน โพธาสท์: Leipzig University, ScaDS.AI Center for Scalable Data Analytics and Artificial Intelligence และ OpenWebSearch.EU
- ศ.ดร.โฮลเกอร์ ฮูส: Alexander von Humboldt ศาสตราจารย์ด้าน AI ที่ RWTH Aachen University (เยอรมนี) และศาสตราจารย์ด้าน Machine Learning ที่ Universiteit Leiden (เนเธอร์แลนด์)
- ศ.ดร. เฮนนิ่ง วอชสมุท: ประธานฝ่ายการประมวลผลภาษาธรรมชาติที่สถาบันปัญญาประดิษฐ์ มหาวิทยาลัยไลบ์นิซ ฮันโนเวอร์
- ศ.ดร.วิล ฟาน เดอร์ อาลสต์: Alexander von Humboldt ศาสตราจารย์ด้านกระบวนการและข้อมูลวิทยาศาสตร์ที่ RWTH Aachen University และหัวหน้านักวิทยาศาสตร์ที่ Celonis
- ศ.ดร.บาสเตียน ไลเบ: ประธาน Computer Vision มหาวิทยาลัย RWTH Aachen ประเทศเยอรมนี
- ศ.ดร.มาร์ติน โกรเฮ่: ประธาน Logic and the Theory of Discrete Systems, RWTH University
- ศ. ลุดวิก ชมิดท์: Paul G. Allen School of Computer Science & Engineering มหาวิทยาลัยวอชิงตัน
- ดร. มอร์เทน เออร์เกนส์: รองอธิการบดี Kristiania ผู้ร่วมก่อตั้งและสมาชิกคณะกรรมการของ CLAIRE (สมาพันธ์ห้องปฏิบัติการวิจัย AI ในยุโรป), Adra (สมาคม AI ข้อมูลและหุ่นยนต์) และ NORA (สมาคมวิจัย AI ของนอร์เวย์)
- ศ.ดร.เฮกเตอร์ เกฟฟ์เนอร์: Alexander von Humboldt Professor in AI at RWTH Aachen University (Germany) and Wallenberg Guest Professor in AI at Linköping University, Sweden
- ศ.ดร. ฮิลเดอ คูเอห์น: Goethe University Frankfurt (เยอรมนี), MIT-IBM Watson AI Lab (สหรัฐอเมริกา)
- ศาสตราจารย์ Gerhard Lakemeyer, Ph.D.: หัวหน้ากลุ่มระบบฐานความรู้และประธานภาควิชาวิทยาการคอมพิวเตอร์ RWTH Aachen University ประเทศเยอรมนี
- เซบาสเตียน นาเกล: Crawl Engineer, Common Crawl, Konstanz, เยอรมนี
แม้ว่าจะไม่อยู่ในรายชื่อผู้สนับสนุนอย่างเป็นทางการ แต่ Unite.AI ก็สนับสนุนสิ่งนี้เช่นกัน จดหมายเปิดผนึก.