სტუბი ტექნიკური ლიდერები ხაზს უსვამენ ხელოვნური ინტელექტის რისკებს და ძლიერი ხელოვნური ინტელექტის რეგულირების აუცილებლობას - Unite.AI
დაკავშირება ჩვენთან ერთად

ხელოვნური ინტელექტი

ტექნიკური ლიდერები ხაზს უსვამენ ხელოვნური ინტელექტის რისკებს და მტკიცე ხელოვნური ინტელექტის რეგულირების აუცილებლობას

mm

გამოქვეყნებულია

 on

გამორჩეული ბლოგი Image-Tech ლიდერები, რომლებიც ხაზს უსვამენ ხელოვნური ინტელექტის რისკებს და მტკიცე ხელოვნური ინტელექტის რეგულირების აუცილებლობას

ხელოვნური ინტელექტის ზრდა და წინსვლა ექსპონენტური იყო ბოლო რამდენიმე წლის განმავლობაში. ინფორმაციას Statista ავრცელებს რომ 2024 წლისთვის გლობალური ხელოვნური ინტელექტის ბაზარი გამოიმუშავებს განსაცვიფრებელ შემოსავალს დაახლოებით $3000 მილიარდი დოლარის ოდენობით, 126 წლის 2015 მილიარდი დოლარის შედარებით. თუმცა, ტექნიკური ლიდერები ახლა გვაფრთხილებენ ხელოვნური ინტელექტის სხვადასხვა რისკების შესახებ.

განსაკუთრებით, ბოლო ტალღა გენერაციული AI მოდელებმა, როგორიცაა ChatGPT, შემოიღო ახალი შესაძლებლობები მონაცემთა მიმართ მგრძნობიარე სექტორებში, როგორიცაა ჯანდაცვა, განათლება, დასაფინანსებლადAI-ით მხარდაჭერილი ეს განვითარება დაუცველია ხელოვნური ინტელექტის მრავალი ნაკლოვანების გამო, რომლებიც მავნე აგენტებს შეუძლიათ გამოაშკარავონ.

მოდით განვიხილოთ, რას ამბობენ AI ექსპერტები ბოლო დროს განვითარებულ მოვლენებზე და გამოვყოთ ხელოვნური ინტელექტის პოტენციური რისკები. ჩვენ ასევე მოკლედ შევეხებით, თუ როგორ შეიძლება ამ რისკების მართვა.

ტექნიკური ლიდერები და მათი შეშფოთება ხელოვნური ინტელექტის რისკებთან დაკავშირებული

ჯეფრი ჰინტონი

ჯეფრი ჰინტონმა – ცნობილმა AI ტექნოლოგიების ლიდერმა (და ამ სფეროს ნათლია), რომელმაც ცოტა ხნის წინ დატოვა Google, გამოთქვა თავისი შეშფოთება ხელოვნური ინტელექტის სწრაფ განვითარებასა და მის პოტენციურ საფრთხეებზე. ჰინტონს სჯერა, რომ ხელოვნური ინტელექტის ჩატბოტები შეიძლება გახდეს „საკმაოდ საშინელი“, თუ ისინი აჭარბებენ ადამიანის ინტელექტს.

ჰინტონი ამბობს:

”ამჟამად, რასაც ჩვენ ვხედავთ, არის ისეთები, როგორიცაა GPT-4 აბნელებს ადამიანს იმ ოდენობით, რაც მას აქვს ზოგადი ცოდნით და შორს აფერხებს მათ. მსჯელობის თვალსაზრისით, ეს არც ისე კარგია, მაგრამ ის უკვე აკეთებს მარტივ მსჯელობას. და პროგრესის ტემპის გათვალისწინებით, ჩვენ ველით, რომ ყველაფერი საკმაოდ სწრაფად გაუმჯობესდება. ასე რომ, ჩვენ უნდა ვიფიქროთ ამაზე. ”

უფრო მეტიც, მას სჯერა, რომ „ცუდ მსახიობებს“ შეუძლიათ ხელოვნური ინტელექტის გამოყენება „ცუდი საქმეებისთვის“, მაგალითად, რობოტებს ნება დართონ თავიანთი ქვემიზნები. მიუხედავად მისი შეშფოთებისა, ჰინტონს სჯერა, რომ AI-ს შეუძლია მოკლევადიანი სარგებელი მოიტანოს, მაგრამ ჩვენ ასევე დიდი ინვესტიცია უნდა ჩავდოთ ხელოვნური ინტელექტის უსაფრთხოებასა და კონტროლში.

ELON მუშკი

ელონ მასკის ჩართვა AI-ში დაიწყო მისი ადრეული ინვესტიციით Deepmind 2010 წელს, თანადამფუძნებლად OpenAI და ტესლას ავტონომიურ მანქანებში ხელოვნური ინტელექტის ჩართვა.

მიუხედავად იმისა, რომ ის ენთუზიაზმით არის განწყობილი ხელოვნური ინტელექტის მიმართ, ის ხშირად გამოთქვამს შეშფოთებას ხელოვნური ინტელექტის რისკების შესახებ. მასკი ამბობს, რომ ძლიერი ხელოვნური ინტელექტის სისტემები შეიძლება უფრო საშიში იყოს ცივილიზაციისთვის, ვიდრე ბირთვული იარაღი. ინტერვიუში at Fox News 2023 წლის აპრილში მან თქვა:

”AI უფრო საშიშია, ვიდრე, ვთქვათ, თვითმფრინავის დიზაინის ან წარმოების არასწორად მართვა ან მანქანის ცუდი წარმოება. იმ გაგებით, რომ მას აქვს პოტენციალი - თუმცა, მცირე შეიძლება ჩაითვალოს ეს ალბათობა - მაგრამ ის არა ტრივიალურია და აქვს ცივილიზაციის განადგურების პოტენციალი.

უფრო მეტიც, მასკი მხარს უჭერს სამთავრობო რეგულაციებს ხელოვნური ინტელექტის შესახებ, რათა უზრუნველყოს უსაფრთხოება პოტენციური რისკებისგან, თუმცა „ეს არც ისე სახალისოა“.

შეაჩერე გიგანტური AI ექსპერიმენტები: ღია წერილი, რომელსაც მხარს უჭერს 1000 AI ექსპერტი

Future of Life Institute-მა ღია წერილი გამოაქვეყნა 22 წლის 2023 მარტს. წერილი ითხოვს დროებით ექვსთვიან შეჩერებას AI სისტემების განვითარება უფრო მოწინავეა ვიდრე GPT-4. ავტორები გამოხატავენ თავიანთ შეშფოთებას ხელოვნური ინტელექტის სისტემების განვითარების ტემპთან დაკავშირებით, რომელიც ქმნის სერიოზულ სოციალურ-ეკონომიკურ გამოწვევებს.

უფრო მეტიც, წერილში ნათქვამია, რომ AI დეველოპერებმა უნდა იმუშაონ პოლიტიკის შემქმნელებთან ხელოვნური ინტელექტის მართვის სისტემების დოკუმენტაციისთვის. 2023 წლის ივნისის მდგომარეობით, წერილს ხელი მოაწერა 31,000-ზე მეტმა AI დეველოპერმა, ექსპერტმა და ტექნიკურმა ლიდერმა. ცნობილი ხელმომწერები არიან ელონ მასკი, სტივ ვოზნიაკი (Apple-ის თანადამფუძნებელი), ემად მოსტაკი (აღმასრულებელი დირექტორი, Stability AI), იოშუა ბენჯიო (ტურინგის პრიზის მფლობელი) და მრავალი სხვა.

საწინააღმდეგო არგუმენტები ხელოვნური ინტელექტის განვითარების შეჩერების შესახებ

ორი ცნობილი AI ლიდერი, ენდრიუ ნგ და იან ლეკუნი, ეწინააღმდეგებოდნენ ექვსთვიან აკრძალვას მოწინავე AI სისტემების განვითარებაზე და პაუზა ცუდ იდეად მიიჩნიეს.

Ng ამბობს, რომ მიუხედავად იმისა, რომ AI-ს აქვს გარკვეული რისკები, როგორიცაა მიკერძოება, ძალაუფლების კონცენტრაცია და ა.შ. მაგრამ AI-ის მიერ შექმნილი ღირებულება ისეთ სფეროებში, როგორიცაა განათლება, ჯანდაცვა და პასუხისმგებელი ქოუჩინგი, უზარმაზარია.

იან ლეკუნი ამბობს, რომ კვლევა და განვითარება არ უნდა შეჩერდეს, თუმცა ხელოვნური ინტელექტის პროდუქტები, რომლებიც მიაღწევენ საბოლოო მომხმარებელს, შეიძლება დარეგულირდეს.

რა არის AI-ს პოტენციური საფრთხეები და უშუალო რისკები?

AI-ს პოტენციური საფრთხეები და უშუალო რისკები

1. სამუშაო გადაადგილება

AI ექსპერტები თვლიან, რომ ინტელექტუალური AI სისტემებს შეუძლიათ შეცვალონ შემეცნებითი და შემოქმედებითი ამოცანები. საინვესტიციო ბანკი Goldman Sachs-ის შეფასებით, დაახლოებით 300 მილიონი სამუშაო ადგილი ავტომატიზირებული იქნება გენერაციული AI-ით.

აქედან გამომდინარე, უნდა არსებობდეს რეგულაციები ხელოვნური ინტელექტის განვითარების შესახებ, რათა მან არ გამოიწვიოს მძიმე ეკონომიკური ვარდნა. უნდა არსებობდეს საგანმანათლებლო პროგრამები თანამშრომლების კვალიფიკაციის ამაღლებისა და კვალიფიკაციის ასამაღლებლად, რათა გაუმკლავდნენ ამ გამოწვევას.

2. მიკერძოებული AI სისტემები

მიკერძოებები ადამიანებში გავრცელებულია სქესის, რასის ან ფერის შესახებ, შეიძლება უნებლიედ შეაღწიოს AI სისტემების ვარჯიშისთვის გამოყენებულ მონაცემებს, რის შედეგადაც AI სისტემები მიკერძოებულს გახდის.

მაგალითად, სამუშაოს დაქირავების კონტექსტში, მიკერძოებულ AI სისტემას შეუძლია გააუქმოს კონკრეტული ეთნიკური წარმომავლობის მქონე პირების რეზიუმეები, რაც ქმნის დისკრიმინაციას სამუშაო ბაზარზე. In სამართალდამცავიმიკერძოებული პროგნოზირებადი პოლიცია შეიძლება არაპროპორციულად იყოს მიმართული კონკრეტული უბნების ან დემოგრაფიული ჯგუფების მიმართ.

აქედან გამომდინარე, აუცილებელია გქონდეთ მონაცემთა ყოვლისმომცველი სტრატეგია, რომელიც მიმართავს AI რისკებს, განსაკუთრებით მიკერძოებას. ხელოვნური ინტელექტის სისტემები ხშირად უნდა იყოს შეფასებული და აუდიტი, რომ ისინი სამართლიანი იყოს.

3. უსაფრთხოების კრიტიკული AI პროგრამები

ავტონომიური სატრანსპორტო საშუალებები, სამედიცინო დიაგნოსტიკა და მკურნალობა, საავიაციო სისტემები, ატომური ელექტროსადგურის კონტროლი და ა.შ., ყველა უსაფრთხოების კრიტიკული AI აპლიკაციების მაგალითებია. ეს AI სისტემები ფრთხილად უნდა იყოს შემუშავებული, რადგან უმნიშვნელო შეცდომებსაც კი შეიძლება ჰქონდეს მძიმე შედეგები ადამიანის სიცოცხლესა და გარემოზე.

მაგალითად, AI პროგრამული უზრუნველყოფის გაუმართაობა ე.წ მანევრირების მახასიათებლების გაზრდის სისტემა (MCAS) ნაწილობრივ მიეკუთვნება ორი Boeing 737 MAX-ის ჩამოვარდნას, ჯერ 2018 წლის ოქტომბერში და შემდეგ 2019 წლის მარტში. სამწუხაროდ, ამ ორ ავარიას 346 ადამიანი ემსხვერპლა.

როგორ დავძლიოთ AI სისტემების რისკები? - პასუხისმგებელი AI განვითარება და მარეგულირებელი შესაბამისობა

პასუხისმგებელი AI განვითარება და მარეგულირებელი შესაბამისობა

პასუხისმგებელი AI (RAI) ნიშნავს სამართლიანი, ანგარიშვალდებული, გამჭვირვალე და უსაფრთხო ხელოვნური ინტელექტის სისტემების შემუშავებას და დანერგვას, რომლებიც უზრუნველყოფენ კონფიდენციალურობას და იცავენ საკანონმდებლო რეგულაციებსა და საზოგადოებრივ ნორმებს. RAI-ს დანერგვა შეიძლება რთული იყოს AI სისტემების ფართო და სწრაფი განვითარების გათვალისწინებით.

თუმცა, დიდმა ტექნიკურმა კომპანიებმა შეიმუშავეს RAI ჩარჩოები, როგორიცაა:

  1. Microsoft-ის პასუხისმგებელი AI
  2. Google-ის AI პრინციპები
  3. IBM'S Trusted AI

AI ლაბორატორიებს მთელს მსოფლიოში შეუძლიათ შთაგონება მიიღონ ამ პრინციპებიდან ან განავითარონ საკუთარი პასუხისმგებელი AI ჩარჩოები სანდო AI სისტემების შესაქმნელად.

AI მარეგულირებელი შესაბამისობა

ვინაიდან მონაცემები AI სისტემების განუყოფელი კომპონენტია, AI-ზე დაფუძნებული ორგანიზაციები და ლაბორატორიები უნდა შეესაბამებოდეს შემდეგ რეგულაციებს მონაცემთა უსაფრთხოების, კონფიდენციალურობისა და უსაფრთხოების უზრუნველსაყოფად.

  1. GDPR (მონაცემთა დაცვის ზოგადი რეგულაცია) – მონაცემთა დაცვის ჩარჩო ევროკავშირის მიერ.
  2. CCPA (კალიფორნიის მომხმარებელთა კონფიდენციალურობის აქტი) – კალიფორნიის შტატის დებულება კონფიდენციალურობის უფლებებისა და მომხმარებელთა დაცვის შესახებ.
  3. HIPAA (ჯანმრთელობის დაზღვევის პორტაბელურობისა და ანგარიშვალდებულების აქტი) – აშშ-ს კანონმდებლობა, რომელიც იცავს პაციენტების სამედიცინო მონაცემებს.   
  4. ევროკავშირის AI აქტიდა ეთიკის სახელმძღვანელო სანდო AI-სთვის - ევროკომისიის AI რეგულაცია.

არსებობს სხვადასხვა რეგიონალური და ადგილობრივი კანონები, რომლებიც მიღებულია სხვადასხვა ქვეყნის მიერ მათი მოქალაქეების დასაცავად. ორგანიზაციები, რომლებიც ვერ უზრუნველყოფენ მონაცემთა ირგვლივ მარეგულირებელ შესაბამისობას, შეიძლება გამოიწვიოს მკაცრი ჯარიმები. მაგალითად, GDPR-მ დააწესა ჯარიმა 20 მილიონი ევრო ანუ წლიური მოგების 4%. სერიოზული დარღვევებისთვის, როგორიცაა მონაცემთა უკანონო დამუშავება, მონაცემების დაუმტკიცებელი თანხმობა, მონაცემთა სუბიექტის უფლებების დარღვევა ან მონაცემთა დაუცველი საერთაშორისო ერთეულისთვის გადაცემა.

ხელოვნური ინტელექტის განვითარება და რეგულაციები – აწმყო და მომავალი

ყოველი გასული თვე, ხელოვნური ინტელექტის წინსვლა უპრეცედენტო სიმაღლეებს აღწევს. მაგრამ, თანმხლები AI რეგულაციები და მმართველობის ჩარჩოები ჩამორჩენილია. ისინი უფრო მტკიცე და სპეციფიკური უნდა იყვნენ.

ტექნიკური ლიდერები და ხელოვნური ინტელექტის დეველოპერები აფრთხილებენ ხელოვნურ ინტელექტის რისკებს, თუ ადეკვატურად არ რეგულირდება. ხელოვნური ინტელექტის კვლევამ და განვითარებამ შეიძლება შემდგომი ღირებულება მოიტანოს ბევრ სექტორში, მაგრამ ცხადია, რომ ფრთხილად რეგულირება ახლა აუცილებელია.

AI-სთან დაკავშირებული მეტი შინაარსისთვის ეწვიეთ გაერთიანდეს.აი.