სტუბი Google ქმნის ახალ ახსნადი AI პროგრამას გამჭვირვალობისა და გამართვის გასაუმჯობესებლად - Unite.AI
დაკავშირება ჩვენთან ერთად

ეთიკის

Google ქმნის ახალ ახსნადი AI პროგრამას გამჭვირვალობისა და გამართვის გასაუმჯობესებლად

mm

გამოქვეყნებულია

 on

სულ ახლახან, Google-მა გამოაცხადა ახალი ღრუბლოვანი პლატფორმის შექმნის შესახებ, რომელიც მიზნად ისახავს იმის გაგებას, თუ როგორ იღებს AI პროგრამა გადაწყვეტილებებს, ამარტივებს პროგრამის გამართვას და აძლიერებს გამჭვირვალობას. როგორც იტყობინება რეგისტრაცია, ღრუბლოვან პლატფორმას ეძახიან Explainable AI და ის აღნიშნავს Google-ის მთავარ მცდელობას ინვესტირებას AI-ის ახსნადობაში.

ხელოვნური ნეირონული ქსელები გამოიყენება ბევრ, შესაძლოა უმეტესად, AI-ის ძირითად სისტემაში, რომლებიც დღეს გამოიყენება მსოფლიოში. ნერვული ქსელები, რომლებიც მართავენ AI-ს ძირითად აპლიკაციებს, შეიძლება იყოს არაჩვეულებრივად რთული და დიდი, და რაც უფრო იზრდება სისტემის სირთულე, უფრო და უფრო რთული ხდება იმის გაგება, თუ რატომ მიიღო სისტემამ კონკრეტული გადაწყვეტილება. როგორც Google განმარტავს თავის თეთრ ქაღალდში, როგორც AI სისტემები უფრო მძლავრი ხდება, ისინი ასევე უფრო რთული და, შესაბამისად, უფრო რთული გამართვა ხდება. გამჭვირვალობა ასევე იკარგება, როდესაც ეს ხდება, რაც ნიშნავს, რომ მიკერძოებული ალგორითმები შეიძლება იყოს რთული ამოცნობა და მიმართვა.

ის ფაქტი, რომ მსჯელობა, რომელიც ამოძრავებს რთული სისტემების ქცევას, იმდენად ძნელია ინტერპრეტაცია, ხშირად აქვს მკვეთრი შედეგები. გარდა იმისა, რომ ართულებს ხელოვნური ინტელექტის მიკერძოებულობის წინააღმდეგ ბრძოლას, მას შეუძლია არაჩვეულებრივად გაართულოს ყალბი კორელაციების გარჩევა ჭეშმარიტად მნიშვნელოვანი და საინტერესო კორელაციებისგან.

ბევრი კომპანია და კვლევითი ჯგუფი იკვლევს, თუ როგორ უნდა მოგვარდეს ხელოვნური ინტელექტის „შავი ყუთის“ პრობლემა და შექმნას სისტემა, რომელიც ადეკვატურად განმარტავს, თუ რატომ მიიღო გარკვეული გადაწყვეტილებები ხელოვნური ინტელექტის მიერ. Google-ის Explainable AI პლატფორმა წარმოადგენს საკუთარ წინადადებას ამ გამოწვევის დასაძლევად. ახსნადი AI შედგება სამი განსხვავებული ინსტრუმენტისგან. პირველი ინსტრუმენტი სისტემა, რომელიც აღწერს რომელი მახასიათებელია არჩეული AI-ს მიერ და ის ასევე აჩვენებს ატრიბუციის ქულას, რომელიც წარმოადგენს კონკრეტულ მახასიათებელს საბოლოო პროგნოზზე გავლენის ოდენობას. Google-ის ანგარიში ხელსაწყოს შესახებ იძლევა მაგალითს იმის პროგნოზირების შესახებ, თუ რამდენ ხანს გაგრძელდება ველოსიპედით გასეირნება ისეთი ცვლადების საფუძველზე, როგორიცაა ნალექი, მიმდინარე ტემპერატურა, კვირის დღე და დაწყების დრო. მას შემდეგ, რაც ქსელი მიიღებს გადაწყვეტილებას, მიიღება გამოხმაურება, რომელიც აჩვენებს, რომელმა მახასიათებლებმა მოახდინეს ყველაზე დიდი გავლენა პროგნოზებზე.

როგორ იძლევა ეს ინსტრუმენტი ასეთ გამოხმაურებას გამოსახულების მონაცემების შემთხვევაში? ამ შემთხვევაში, ხელსაწყო აწარმოებს გადაფარვას, რომელიც ხაზს უსვამს გამოსახულების იმ რეგიონებს, რომლებიც ყველაზე მეტად იწონის გამოტანილ გადაწყვეტილებას.

ინსტრუმენტთა ნაკრების კიდევ ერთი ინსტრუმენტი არის „What-If“ ინსტრუმენტი, რომელიც აჩვენებს მოდელის მუშაობის პოტენციურ რყევებს, როდესაც ხდება ინდივიდუალური ატრიბუტების მანიპულირება. დაბოლოს, ბოლო ხელსაწყო საშუალებას იძლევა დაყენდეს, რათა ნიმუშების შედეგები მიაწოდოს ადამიანთა მიმომხილველებს თანმიმდევრული გრაფიკით.

დოქტორმა ენდრიუ მურმა, Google-ის მთავარმა მეცნიერმა ხელოვნური ინტელექტისა და მანქანათმცოდნეობის საკითხებში, აღწერა პროექტის ინსპირაცია. მურმა განმარტა, რომ დაახლოებით ხუთი წლის წინ აკადემიურმა საზოგადოებამ დაიწყო შეშფოთება ხელოვნური ინტელექტის გამოყენების მავნე გვერდითი პროდუქტებით და რომ Google-ს სურდა უზრუნველყოს მათი სისტემების გამოყენება მხოლოდ ეთიკური გზებით. მურმა აღწერა ინციდენტი, როდესაც კომპანია ცდილობდა შეემუშავებინა კომპიუტერული ხედვის პროგრამა, რათა გაეფრთხილებინა მშენებლების მუშები, თუ ვინმეს ჩაფხუტი არ ეცვა, მაგრამ ისინი შეშფოთებულნი არიან, რომ მონიტორინგი შეიძლება ძალიან შორს წავიდეს და გახდეს დეჰუმანური. მურმა თქვა, რომ არსებობდა მსგავსი მიზეზი იმისა, რომ Google-მა გადაწყვიტა არ გამოექვეყნებინა სახის ამოცნობის ზოგადი API, რადგან კომპანიას სურდა მეტი კონტროლი ჰქონოდა მათი ტექნოლოგიის გამოყენებაზე და უზრუნველყოს მისი გამოყენება მხოლოდ ეთიკური გზებით.

მურმა ასევე ხაზი გაუსვა რატომ იყო ასე მნიშვნელოვანი, რომ ხელოვნური ინტელექტის გადაწყვეტილება ახსნილი ყოფილიყო:

„თუ თქვენ გაქვთ უსაფრთხოების კრიტიკული სისტემა ან სოციალურად მნიშვნელოვანი რამ, რომელსაც შეიძლება მოჰყვეს არასასურველი შედეგები, თუ ფიქრობთ, რომ თქვენმა მოდელმა შეცდომა დაუშვა, თქვენ უნდა შეძლოთ მისი დიაგნოსტიკა. ჩვენ გვსურს ავუხსნათ, რისი გაკეთება შეუძლია ახსნადობას და რისი არა. ეს არ არის პანაცეა.

ბლოგერი და პროგრამისტი სპეციალობით მანქანა სწავლა მდე ღრმა სწავლება თემები. დანიელი იმედოვნებს, რომ დაეხმარება სხვებს გამოიყენონ ხელოვნური ინტელექტის ძალა სოციალური სიკეთისთვის.