ผู้นำทางความคิด
การใช้ AI อย่างมีจริยธรรมไม่ใช่แค่สิ่งที่ควรทำ – แต่ยังเป็นธุรกิจที่ดี

เมื่อการนำ AI ไปใช้เพิ่มขึ้น และองค์กรในอุตสาหกรรมทุกประเภทเริ่มใช้เครื่องมือและแอปพลิเคชันตาม AI ก็ไม่น่าประหลาดใจที่ผู้กระทำความผิดทางไซเบอร์กำลังหาวิธีโจมตีและใช้ประโยชน์จากเครื่องมือเหล่านั้นเพื่อประโยชน์ของตนเอง แต่ในขณะที่การปกป้อง AI จากการโจมตีทางไซเบอร์นั้นสำคัญ การใช้ AI ที่มีความเสี่ยงนั้นไปไกลกว่านั้นมาก ในทั่วโลก รัฐบาลเริ่มควบคุมวิธีการพัฒนาและใช้ AI และธุรกิจสามารถเสียหายต่อชื่อเสียงได้มากหากพบว่าพวกเขาใช้ AI ในวิธีที่ไม่เหมาะสม ธุรกิจในปัจจุบันพบว่าการใช้ AI ในลักษณะที่มีจริยธรรมและรับผิดชอบไม่ใช่แค่สิ่งที่ควรทำ – แต่ยังเป็นสิ่งสำคัญในการสร้างความไว้วางใจ รักษาความสอดคล้อง และแม้แต่ปรับปรุงคุณภาพของผลิตภัณฑ์ของตน
ความเป็นจริงด้านกฎระเบียบเกี่ยวกับ AI
ภูมิทัศน์ด้านกฎระเบียบที่เปลี่ยนแปลงอย่างรวดเร็วนี้ควรเป็นเรื่องที่น่ากังวลอย่างจริงจังสำหรับผู้ให้บริการที่นำเสนอโซลูชันตาม AI ตัวอย่างเช่น EU AI Act ซึ่งผ่านในปี 2024 นำแนวทางที่อิงตามความเสี่ยงในการควบคุม AI และถือว่าระบบที่มีส่วนร่วมในกิจกรรมที่อาจไม่มีจริยธรรม เช่น การให้คะแนนทางสังคม พฤติกรรมที่หลอกลวง และกิจกรรมอื่นๆ ที่อาจไม่มีจริยธรรมว่าเป็น “ไม่เหมาะสม” ระบบเหล่านั้นถูกห้ามโดยตรง ในขณะที่ระบบ AI “ความเสี่ยงสูง” อื่นๆ ต้องมีภาระผูกพันอย่างเข้มงวดมากขึ้นเกี่ยวกับการประเมินความเสี่ยง คุณภาพของข้อมูล และความโปร่งใส การลงโทษสำหรับการไม่ปฏิบัติตามกฎระเบียบเหล่านี้รุนแรง: บริษัทที่พบว่าใช้ AI ในวิธีที่ไม่เหมาะสมอาจถูกปรับได้มากถึง 35 ล้านยูโร หรือ 7% ของยอดขายประจำปี
EU AI Act เป็นเพียงหนึ่งในกฎหมาย แต่มันแสดงให้เห็นถึงต้นทุนที่สูงของการไม่ปฏิบัติตามเกณฑ์จริยธรรมบางประการ รัฐเช่นแคลิฟอร์เนีย นิวยอร์ก โคโลราโด และอื่นๆ ล้วนได้บังคับใช้ แนวทาง AI ของตนเอง ซึ่งส่วนใหญ่มุ่งเน้นไปที่ปัจจัยเช่น ความโปร่งใส การรักษาความเป็นส่วนตัวของข้อมูล และการป้องกันอคติ และแม้ว่าสหประชาชาติจะไม่มีกลไกบังคับใช้เหมือนรัฐบาล แต่ก็ควรทราบว่าสมาชิกสหประชาชาติ 193 ประเทศ ยืนยันอย่างเป็นเอกฉันท์ ว่า “สิทธิมนุษยชนและเสรีภาพพื้นฐานจะต้องได้รับการเคารพ ปกป้อง และส่งเสริมตลอดวงจรของระบบ AI” ในการแก้ไขปี 2024 ทั่วโลก สิทธิมนุษยชนและข้อพิจารณาด้านจริยธรรมมีความสำคัญมากขึ้นเมื่อพูดถึง AI
ผลกระทบต่อชื่อเสียงจากการใช้ AI ที่มีจริยธรรมไม่ดี
ในขณะที่ความกังวลเรื่องการปฏิบัติตามกฎระเบียบนั้นเป็นเรื่องจริง เรื่องราวไม่ได้หยุดอยู่แค่นั้น ความจริงคือ การจัดลำดับความสำคัญของพฤติกรรมที่มีจริยธรรมสามารถปรับปรุงคุณภาพของโซลูชัน AI ได้อย่างมีหลักการ หากระบบ AI มีอคติที่ชัดเจน นั่นไม่ดีจากมุมมองด้านจริยธรรม – แต่ยังหมายความว่าผลิตภัณฑ์นั้นไม่ได้ทำงานตามที่ควร ตัวอย่างเช่น เทคโนโลยีการจดจำใบหน้าบางอย่างถูกวิพากษ์วิจารณ์ว่า ไม่สามารถระบุใบหน้าผิวสีได้ดีเท่ากับใบหน้าผิวขาว หากโซลูชันการรู้จำใบหน้าล้มเหลวในการระบุวัตถุเป้าหมายที่สำคัญ นั่นแสดงถึงปัญหาด้านจริยธรรมที่ร้ายแรง – แต่ยังหมายความว่าเทคโนโลยีนั้นไม่ได้ให้ประโยชน์ที่คาดหวัง และลูกค้าจะไม่พอใจ การจัดการกับอคติไม่เพียงแต่บรรเทาผลกระทบด้านจริยธรรมเท่านั้น แต่ยังปรับปรุงคุณภาพของผลิตภัณฑ์ด้วย
ความกังวลเกี่ยวกับอคติ การเลือกปฏิบัติ และความยุติธรรมสามารถทำให้ผู้ให้บริการต้องเผชิญกับปัญหาในการปฏิบัติตามกฎระเบียบ แต่ก 也ยังทำให้ความไว้วางใจของลูกค้าลดลง ควรจะมี “เส้นแดง” ในเรื่องของวิธีการใช้ AI และผู้ให้บริการที่จะร่วมงานด้วย ผู้ให้บริการ AI ที่เกี่ยวข้องกับการให้ข้อมูลที่ไม่ถูกต้อง การเฝ้าดูอย่างกว้างขวาง การให้คะแนนทางสังคม รัฐบาลที่กดขี่ หรือแม้แต่การขาดความรับผิดชอบสามารถทำให้ลูกค้ารู้สึกไม่สบายใจ และผู้ให้บริการที่ให้บริการ AI ควรพิจารณาเรื่องนี้เมื่อเลือกพันธมิตร ความโปร่งใสมักเป็นสิ่งที่ดีกว่า – ผู้ที่ปฏิเสธที่จะเปิดเผยว่า AI ถูกใช้อย่างไรหรือมีพันธมิตรคือใคร ดูเหมือนว่าพวกเขากำลังซ่อนอะไรบางอย่าง ซึ่งโดยทั่วไปแล้วไม่ได้สร้างความรู้สึกที่ดีในตลาด
การระบุและบรรเทาผลกระทบด้านจริยธรรมที่ไม่ดี
ลูกค้าเรียนรู้ที่จะค้นหาเครื่องหมายอันตรายของพฤติกรรม AI ที่ไม่มีจริยธรรม ผู้ให้บริการที่สัญญาไว้มากแต่ไม่ได้อธิบายความสามารถ AI ของตนอย่างเพียงพอ อาจไม่ซื่อสัตย์เกี่ยวกับสิ่งที่โซลูชันของตนสามารถทำได้จริงๆ การปฏิบัติต่อข้อมูลที่ไม่ดี เช่น การเก็บข้อมูลมากเกินไปหรือไม่สามารถเลือกไม่เข้าร่วมการฝึกโมเดล AI ได้ ก็สามารถทำให้เกิดสัญญาณเตือนได้ ผู้ให้บริการที่ใช้ AI ในผลิตภัณฑ์และบริการของตนควรจะมีกรอบการกำกับดูแลที่ชัดเจนและเปิดเผยต่อสาธารณะ โดยมีกลไกความรับผิดชอบที่มีอยู่ ผู้ที่บังคับให้ทำการอนุญาโตตุลาการ – หรือไม่ให้การแก้ปัญหาใดๆ – ไม่น่าจะเป็นพันธมิตรที่ดี เช่นเดียวกับผู้ให้บริการที่ไม่เต็มใจหรือไม่สามารถให้เมตริกที่พวกเขาวัดและจัดการกับอคติในโมเดล AI ของตนได้ ลูกค้าในปัจจุบันไม่ไว้วางใจโซลูชัน “กล่องดำ” – พวกเขาต้องการทราบว่าและเมื่อใดที่ AI ถูกใช้ในโซลูชันที่พวกเขาไว้วางใจ
สำหรับผู้ให้บริการที่ใช้ AI ในผลิตภัณฑ์ของตน สิ่งสำคัญคือต้องสื่อสารให้ลูกค้าทราบว่าข้อพิจารณาด้านจริยธรรมเป็นเรื่องสำคัญ ผู้ที่ฝึกโมเดล AI ของตนเองต้องการกระบวนการป้องกันอคติที่เข้มแข็ง และผู้ที่พึ่งพาผู้ให้บริการ AI ภายนอกต้องจัดลำดับความสำคัญของพันธมิตรที่มีชื่อเสียงในการดำเนินธุรกิจอย่างยุติธรรม สิ่งสำคัญคือต้องให้ลูกค้ามีทางเลือก: มีหลายคนยังไม่สบายใจที่จะไว้วางใจข้อมูลของตนให้กับโซลูชัน AI และการให้ตัวเลือก “ไม่ใช้” สำหรับคุณสมบัติ AI ช่วยให้พวกเขาได้ทดลองในอัตราของตนเอง สิ่งสำคัญคือต้องโปร่งใสเกี่ยวกับที่มาของข้อมูลการฝึกอบรม อีกครั้ง นี่คือเรื่องของจริยธรรม – แต่ยังเป็นธุรกิจที่ดี หากลูกค้าพบว่าโซลูชันที่พวกเขาใช้นั้นถูกฝึกอบรมจากข้อมูลที่มีลิขสิทธิ์ จะทำให้พวกเขาเสี่ยงต่อการดำเนินการทางกฎระเบียบหรือทางกฎหมาย โดยการเปิดทุกอย่างให้เห็น ผู้ให้บริการสามารถสร้างความไว้วางใจกับลูกค้าและช่วยให้พวกเขาหลีกเลี่ยงผลลัพธ์ที่ไม่ดี
การจัดลำดับความสำคัญของจริยธรรมคือการตัดสินใจทางธุรกิจที่ชาญฉลาด
ความไว้วางใจมักเป็นส่วนสำคัญของความสัมพันธ์ทางธุรกิจทุกอย่าง AI ไม่ได้เปลี่ยนแปลงสิ่งนี้ – แต่มันนำเสนอการพิจารณาใหม่ที่ผู้ให้บริการต้องจัดการ ข้อกังวลด้านจริยธรรมไม่จำเป็นต้องเป็นเรื่องสำคัญสำหรับผู้นำธุรกิจเสมอไป แต่เมื่อพูดถึง AI พฤติกรรมที่ไม่มีจริยธรรมสามารถมีผลกระทบร้ายแรง – รวมถึงความเสียหายต่อชื่อเสียงและผลกระทบด้านกฎระเบียบและความสอดคล้องที่อาจเกิดขึ้น มากกว่านั้น การไม่สนใจข้อพิจารณาด้านจริยธรรม เช่น การบรรเทาผลกระทบของอคติ สามารถทำอันตรายต่อคุณภาพของผลิตภัณฑ์และบริการของผู้ให้บริการได้ เมื่อการนำ AI ไปใช้เพิ่มขึ้น ผู้ให้บริการต่างๆ ก็ยิ่งรู้สึกว่าการให้ความสำคัญกับการดำเนินธุรกิจอย่างมีจริยธรรมไม่ใช่แค่สิ่งที่ควรทำ – แต่ยังเป็นธุรกิจที่ดี












