Connect with us

เมื่อ ‘ความรู้’ ของ AI มีอายุ 50 ปี: ความเสี่ยงด้านการปฏิบัติตามกฎระเบียบที่คุณไม่สามารถเพิกเฉยได้

ผู้นำทางความคิด

เมื่อ ‘ความรู้’ ของ AI มีอายุ 50 ปี: ความเสี่ยงด้านการปฏิบัติตามกฎระเบียบที่คุณไม่สามารถเพิกเฉยได้

mm

ปัญหาของข้อมูลที่ไม่ถูกต้องของ AI เป็นความท้าทายที่เร่งด่วน เนื่องจากองค์กรต่างๆ เพิ่มการใช้เครื่องมือที่สร้างข้อมูลขึ้นมาใหม่ (generative tools) แม้ว่าจะมีความกระตือรือร้นอย่างกว้างขวางเกี่ยวกับการนำ AI มาใช้ แต่ก็มีการวิพากษ์วิจารณ์อย่างรุนแรงเช่นกัน ผู้วิจารณ์ที่มีความคิดเห็นอย่างมีวิจารณญาณมักจะชี้ไปที่ข้อผิดพลาดที่ดูเหมือนจะเกิดขึ้นแบบสุ่มและไม่สามารถคาดเดาได้ในการผลิตของ AI ซึ่งทำให้คุณค่าของ AI ลดลง และอาจก่อให้เกิดอันตรายต่อผู้คนได้ โดยเฉพาะในภาคส่วนต่างๆ เช่น การดูแลสุขภาพและขนส่ง ซึ่งการผลิตที่ไม่ถูกต้องอาจนำไปสู่การให้ยาโดยไม่เหมาะสมหรือแม้กระทั่งการชนรถไฟ

ปัญหาการไม่ถูกต้องเหล่านี้มักถูกมองว่าเป็น “การเห็นภาพหลอกลวง” (hallucinations) ของ AI – ซึ่งเป็นกรณีที่ AI สร้างคำตอบ “ที่ดีที่สุด” โดยไม่ได้บอกให้ผู้ใช้ทราบถึงช่องว่างในความรู้หรือความสามารถของ AI การเห็นภาพหลอกลวงอาจยากที่จะสังเกตเห็นในตอนแรก แต่มีปัญหาอีกอย่างหนึ่งที่ร้ายแรงและยากต่อการตรวจจับมากกว่านั้น

หนี้คุณภาพข้อมูล: จุดอ่อนของ AI

เมื่อระบบ AI ดึงข้อมูลที่ล้าสมัย ไม่สมบูรณ์ หรือไม่ถูกต้อง การผลิตที่ไม่ถูกต้องจะเกิดขึ้น แต่จะไม่เห็นได้ชัดเจนในทันที ตัวอย่างเช่น คุณอาจขอให้ AI ระบุอาการของโรคและได้รับคำตอบที่อ้างอิงจากเอกสารวิจัยเมื่อ 50 ปีที่แล้วแทนการวิจัยในปัจจุบัน ผลลัพธ์อาจไม่ดูเหมือนจะผิดพลาดในทางที่เห็นได้ชัด แต่การดูเหมือนจะถูกต้องในตอนแรกนั้นเป็นความเสี่ยงต่อผู้ป่วยและผู้ให้บริการด้านสุขภาพ

สิ่งเดียวกันนี้ใช้ได้กับอุตสาหกรรมต่างๆ – หากข้อมูลที่ใช้ในการให้อาหารโมเดล AI มีข้อมูลเก่า ล้าสมัย หรือไม่สมบูรณ์ มีความเสี่ยงสูงในการผลิตที่ไม่ถูกต้อง และเมื่อบริษัทต่างๆ นำ AI มาใช้ในกระบวนการทางธุรกิจที่สำคัญ ความเสี่ยงของการได้ข้อสรุปที่ไม่ถูกต้องจากข้อมูลที่ไม่ได้รับการจัดการอย่างดีจะเพิ่มขึ้น

ความถูกต้องสำหรับผู้กำกับดูแล

สิ่งนี้ไม่ใช่ปัญหาเพียงสำหรับการดำเนินงานประจำวัน แต่ยังเป็นความท้าทายด้านการปฏิบัติตามกฎระเบียบอีกด้วย ข้อกำหนดด้านกฎระเบียบกำลังพัฒนาอย่างรวดเร็วเพื่อจัดการกับความกังวลเกี่ยวกับ AI ที่ไม่ถูกต้อง ตัวอย่างเช่น มีการดำเนินการด้านกฎระเบียบเกี่ยวกับ AI ในระยะแรก เช่น เมื่อประเทศอิตาลีห้ามใช้ ChatGPT ชั่วคราวเนื่องจากความกังวลเกี่ยวกับความเป็นส่วนตัว และคณะกรรมการคุ้มครองข้อมูลของสหภาพยุโรปได้สร้างทีมงานพิเศษเพื่อประสานการดำเนินการบังคับใช้กฎหมายกับ ChatGPT

การเปลี่ยนแปลงด้านกฎระเบียบที่มีนัยสำคัญที่สุดคือการผ่านกฎหมาย AI ของสหภาพยุโรป ซึ่งเป็นกรอบกฎหมายที่ครอบคลุมที่สุดสำหรับ AI ในโลก กฎหมายนี้กำหนดภาระผูกพันตามระดับความเสี่ยงของระบบ AI ตั้งแต่ “ความเสี่ยงที่ไม่สามารถยอมรับได้” ซึ่งถูกห้าม ไปจนถึง “ความเสี่ยงที่สูง” ซึ่งต้องมีข้อกำหนดที่เข้มงวดเกี่ยวกับการถอดรหัส ข้อมูล คุณภาพ การกำกับดูแล และการดูแลของมนุษย์

ความสำคัญของกฎหมาย AI ของสหภาพยุโรปไม่เพียงแต่อยู่ที่ขอบเขตที่มีความทะเยอทะยานเท่านั้น แต่ยังเป็นแบบอย่างที่กำหนดไว้ ผู้กำกับดูแลกำลังชี้แจงว่า AI จะต้องมีกฎและข้อบังคับที่มีผลผูกพัน และองค์กรต่างๆ ต้องปฏิบัติตามข้อกำหนดและความโปร่งใสเกี่ยวกับวิธีการและที่ใดที่ AI ถูกนำมาใช้ ไม่ใช่แค่การนำมาใช้เพียงอย่างเดียว

กฎหมายมีอำนาจครอบคลุมส่วนใหญ่ของการพัฒนา AI และมีศักยภาพที่จะส่งผลกระทบต่อการพัฒนาส่วนใหญ่ของ AI ใจกลางของกฎหมายคือการทำให้ AI มีความปลอดภัยในขณะเดียวกันก็เคารพสิทธิและคุณค่าพื้นฐาน การวินิจฉัยแหล่งที่มาของความไม่ถูกต้องที่อาจเกิดขึ้นของ AI รวมถึงข้อมูลและชุดข้อมูลที่ให้อาหารโมเดล การออกแบบโมเดล และการเข้าถึงระบบ และการออกแบบและการใช้งานของ AI เป็นผลมาจากการสร้างทั้งสามสิ่งนี้ – ปัญหาใดๆ เหล่านี้สามารถมีผลลัพธ์เชิงลบได้ นอกจากนี้ ข้อมูลที่ใช้ในการออกแบบ การพัฒนา การใช้งาน และการดำเนินงานของ AI มีแนวโน้มที่จะประกอบด้วยบันทึกทางธุรกิจซึ่งถูกควบคุมโดยข้อกำหนดด้านการปฏิบัติตามกฎระเบียบต่างๆ

ในอีกคำหนึ่ง สภาพแวดล้อมด้านกฎระเบียบที่เกี่ยวข้องกับ AI กำลัง变得เข้มงวดมากขึ้น – และสิ่งนี้ใช้ได้กับทั้งข้อมูลที่เข้ามาและข้อมูลที่ออกมา แม้ว่าข้อมูลที่ออกมาจะได้รับความสนใจมากกว่าก็ตาม

5 ขั้นตอนในการให้ข้อมูลที่ถูกต้องและทันสมัยแก่ AI

เพื่อแก้ไขความท้าทายทั้งสองนี้ – การรับประกันการรักษาข้อมูลที่มีการปฏิบัติตามกฎระเบียบและคุณภาพสูงในการผลิต – ธุรกิจต่างๆ ต้องการการควบคุมข้อมูลการฝึกอบรมและข้อมูลการอนุมาน ไม่幸ด้วย องค์กรหลายแห่งยังคงไม่มีสิ่งนี้

อย่างน้อยที่สุด องค์กรควรใช้โปรแกรมการปฏิบัติตามกฎระเบียบและธรรมาภิบาลในวงกว้างสำหรับโครงการ AI พวกเขาต้องเริ่มบันทึกและรักษาบันทึกที่เหมาะสมเกี่ยวกับข้อมูลที่พวกเขาป้อนเข้าโมเดล AI ว่าโมเดลและระบบถูกออกแบบอย่างไร以及การตัดสินใจและเนื้อหาที่สร้างขึ้นผ่าน AI

อย่างไรก็ตาม สิ่งนี้กำลังจะกลายเป็นสิ่งสำคัญที่องค์กรจะต้องไปไกลกว่านั้นและรับประกันว่าพวกเขามีการควบคุมข้อมูลทั้งหมดที่สามารถใช้ในการใช้งาน AI ได้ ไม่ว่าจะเป็นการฝึกอบรมครั้งแรกหรือ “การทำงานสด” สิ่งนี้ต้องการกลยุทธ์การจัดการและจัดเก็บข้อมูลที่มีคุณภาพสูง โดยรับประกันว่าข้อมูลที่เกี่ยวข้องทั้งหมดถูกเก็บรวบรวมอย่างชาญฉลาด ทำความสะอาด จัดเก็บ จัดประเภท และมอบสิทธิ์ให้ เพื่อให้บรรลุเป้าหมายนี้ องค์กรต้องพิจารณาขั้นตอนหลักๆ 4 ขั้นตอน:

1. ระบุตัวตนและที่มาของข้อมูล

สิ่งนี้รวมถึงการรักษาบันทึกเกี่ยวกับต้นกำเนิดของข้อมูล ความเป็นเจ้าของ และการเปลี่ยนแปลงใดๆ ในข้อมูลที่เกิดขึ้นระหว่างวงจรชีวิตของข้อมูล นอกจากนี้ยังหมายถึงการรักษาเมตาดาต้าที่มีคุณภาพสูงและเอกสารหรือสิ่งประดิษฐ์ที่ซ่อนอยู่ทั้งหมดที่ข้อมูลนั้นได้รับ

2. ความถูกต้องของข้อมูล

สิ่งนี้ต้องการการรักษาลำดับการดูแลข้อมูลที่ชัดเจน การจัดเก็บวัตถุในรูปแบบดั้งเดิม และการสร้างแฮชวัตถุที่ได้รับเพื่อแสดงให้เห็นว่าข้อมูลไม่เปลี่ยนแปลง นอกจากนี้ องค์กรต้องรักษาบันทึกการตรวจสอบที่สมบูรณ์สำหรับวัตถุแต่ละรายการ และสำหรับการดำเนินการและเหตุการณ์ทั้งหมดที่เกี่ยวข้องกับการเปลี่ยนแปลง

3. การจัดประเภทข้อมูล

การกำหนดลักษณะของชุดข้อมูลหรือประเภทของข้อมูลมีความสำคัญ องค์กรต้องสามารถกำกับดูแลข้อมูลที่มีโครงสร้าง ข้อมูลที่มีโครงสร้างบางส่วน และชุดข้อมูลที่มีโครงสร้าง การให้โครงสร้างที่เป็นเอกลักษณ์สำหรับแต่ละประเภทจะช่วยให้สามารถจัดการชุดข้อมูลที่หลากหลายได้โดยไม่ต้องใช้โครงสร้างข้อมูลที่ยืดหยุ่น – และหลีกเลี่ยงการดัดแปลงข้อมูลให้เข้ากับโครงสร้างข้อมูลที่ไม่ยืดหยุ่น

4. การทำให้ข้อมูลเป็นมาตรฐาน

การกำหนดคำจำกัดความและรูปแบบของเมตาดาต้าที่ใช้ในระบบวิเคราะห์และ AI มีความสำคัญ สchemas ที่กำหนดไว้อย่างชัดเจนเป็นองค์ประกอบที่สำคัญ เช่นเดียวกับเครื่องมือที่สามารถเปลี่ยนหรือแมปข้อมูลเพื่อรักษาความมองเห็นที่สอดคล้องกันและเป็นมาตรฐานของข้อมูลที่เกี่ยวข้อง

5. สิทธิ์ในการเข้าถึงข้อมูล

องค์กรต้องการการควบคุมสิทธิ์ในการเข้าถึงข้อมูลที่ละเอียดอ่อน รวมถึงระดับวัตถุหรือฟิลด์ โดยอาศัยโปรไฟล์ของผู้ใช้หรือระบบ สิ่งนี้หมายถึงการให้ข้อมูลที่ถูกต้องแก่ผู้ใช้และระบบที่มีสิทธิ์ในการเข้าถึง ขณะเดียวกันก็จำกัดการเข้าถึงหรือปฏิเสธการเข้าถึงสำหรับผู้ที่ไม่มีสิทธิ์

ด้วยองค์ประกอบสำคัญเหล่านี้ที่มีอยู่ องค์กรจะสามารถรับประกันได้ว่าข้อมูลที่ให้กับโมเดล AI มีคุณภาพสูงและถูกต้อง AI จะขับเคลื่อนการปรับปรุงและประสิทธิภาพในอุตสาหกรรมต่างๆ – แต่เพื่อให้สิ่งนี้เกิดขึ้น พื้นฐานข้อมูลที่มั่นคงจึงจำเป็น

จอร์จ ทซิฮานาส เป็น VP of Compliance และ Associate General Counsel ที่ Archive360 จอร์จเป็นผู้นำระดับบริหารที่มีความเข้าใจอย่างลึกซึ้งเกี่ยวกับเทคโนโลยีที่ซับซ้อน กฎระเบียบธนาคาร การกำกับดูแลข้อมูล และการบริหารความเสี่ยง และทำงานอย่างใกล้ชิดกับลูกค้าปัจจุบันและลูกค้าที่มีศักยภาพเพื่อให้แน่ใจว่าข้อกำหนดการกำกับดูแลข้อมูลและความต้องการการปฏิบัติตามกฎระเบียบที่ซับซ้อนได้รับการตอบสนอง ซึ่งสอดคล้องกับโซลูชันของ Archive360