სტუბი Yaron Singer, Robust Intelligence-ის აღმასრულებელი დირექტორი და ჰარვარდის უნივერსიტეტის კომპიუტერული მეცნიერების პროფესორი - ინტერვიუების სერია - Unite.AI
დაკავშირება ჩვენთან ერთად

ინტერვიუები

Yaron Singer, Robust Intelligence-ის აღმასრულებელი დირექტორი და ჰარვარდის უნივერსიტეტის კომპიუტერული მეცნიერების პროფესორი – ინტერვიუების სერია

mm

გამოქვეყნებულია

 on

Yaron Singer არის აღმასრულებელი დირექტორი ძლიერი დაზვერვა და ჰარვარდის კომპიუტერული მეცნიერებისა და გამოყენებითი მათემატიკის პროფესორი. Yaron ცნობილია მანქანური სწავლების, ალგორითმებისა და ოპტიმიზაციის გარღვევის შედეგებით. მანამდე იარონი მუშაობდა Google Research-ში და მიიღო დოქტორის ხარისხი UC Berkeley-ში.

რამ მიგიზიდათ თავდაპირველად კომპიუტერული მეცნიერებისა და მანქანათმცოდნეობის სფერომ?

ჩემი მოგზაურობა დაიწყო მათემატიკით, რამაც მიმიყვანა კომპიუტერულ მეცნიერებამდე, რამაც დამაყენა მანქანათმცოდნეობის გზაზე. მათემატიკამ თავიდან მიიპყრო ჩემი ინტერესი, რადგან მისმა აქსიომატურმა სისტემამ მომცა ახალი სამყაროების შექმნის შესაძლებლობა. კომპიუტერული მეცნიერებით გავიგე ეგზისტენციალური მტკიცებულებების, მაგრამ ასევე მათ უკან არსებული ალგორითმების შესახებ. შემოქმედებითი პერსპექტივიდან, კომპიუტერული მეცნიერება არის საზღვრების დახატვა იმას შორის, რისი გაკეთებაც შეგვიძლია და არ შეგვიძლია.

ჩემი ინტერესი მანქანათმცოდნეობისადმი ყოველთვის დაფუძნებული იყო რეალური მონაცემებისადმი ინტერესით, თითქმის მისი ფიზიკური ასპექტით. ნივთების აღება რეალური სამყაროდან და მათი მოდელირება, რათა რაღაც აზრიანი გახდეს. ჩვენ შეგვეძლო სიტყვასიტყვით შეგვექმნა უკეთესი სამყარო აზრიანი მოდელირების მეშვეობით. ასე რომ, მათემატიკამ მომცა საფუძველი რამის დასამტკიცებლად, კომპიუტერული მეცნიერება მეხმარება იმის დანახვაში, თუ რისი გაკეთება შეიძლება და არ შეიძლება, და მანქანათმცოდნეობა მაძლევს საშუალებას ამ კონცეფციების მოდელირებას მსოფლიოში.

ბოლო დრომდე თქვენ იყავით ჰარვარდის უნივერსიტეტის კომპიუტერული მეცნიერებისა და გამოყენებითი მათემატიკის პროფესორი, რა იყო თქვენი ძირითადი ამოცანები ამ გამოცდილებიდან?

ჩემი ყველაზე დიდი უპირატესობა ჰარვარდის ფაკულტეტის წევრად არის ის, რომ ავითარებს ადამიანს დიდი საქმეების კეთების მადას. ჰარვარდს ტრადიციულად აქვს მცირე ფაკულტეტი და მოლოდინი გრძელვადიანი ფაკულტეტისგან არის დიდი პრობლემების მოგვარება და ახალი სფეროების შექმნა. თქვენ უნდა იყოთ გაბედული. ეს მთავრდება შესანიშნავი მომზადება კატეგორიის შემქმნელი სტარტაპის დასაწყებად, რომელიც განსაზღვრავს ახალ სივრცეს. მე სულაც არ გირჩევთ პირველ რიგში გაიაროთ ჰარვარდის თანამდებობაზე, მაგრამ თუ ამას გადაურჩებით, სტარტაპის შექმნა უფრო ადვილია.

შეგიძლიათ აღწეროთ თქვენი „აჰა“ მომენტი, როდესაც მიხვდით, რომ დახვეწილი AI სისტემები დაუცველია ცუდი მონაცემების მიმართ, გარკვეული პოტენციურად შორსმიმავალი შედეგებით?

როდესაც მე ვიყავი კურსდამთავრებული უნივერსიტეტის ბერკლიში, გარკვეული დრო გამოვიტანე სტარტაპისთვის, რომელიც ქმნიდა მანქანური სწავლის მოდელებს სოციალურ ქსელებში მარკეტინგისთვის. ეს იყო 2010 წელს. ჩვენ გვქონდა დიდი რაოდენობით მონაცემები სოციალური მედიიდან და ყველა მოდელი დავშიფრეთ ნულიდან. ფინანსური შედეგები საცალო მოვაჭრეებისთვის საკმაოდ მნიშვნელოვანი იყო, ამიტომ ჩვენ ყურადღებით ვადევნებდით თვალყურს მოდელების მუშაობას. მას შემდეგ, რაც ჩვენ ვიყენებდით მონაცემებს სოციალური მედიიდან, იყო მრავალი შეცდომა შეყვანისას, ისევე როგორც დრიფტი. ჩვენ დავინახეთ, რომ ძალიან მცირე შეცდომებმა გამოიწვია დიდი ცვლილებები მოდელის გამომუშავებაში და შეიძლება გამოიწვიოს ცუდი ფინანსური შედეგები საცალო ვაჭრობისთვის, რომლებიც იყენებენ პროდუქტს.

როდესაც გადავედი Google+-ზე მუშაობაზე (მათთვის, ვისაც გვახსოვს), ზუსტად იგივე ეფექტები დავინახე. უფრო დრამატულად, ისეთ სისტემებში, როგორიცაა AdWords, რომლებიც წინასწარმეტყველებდნენ საკვანძო სიტყვების რეკლამაზე ხალხის დაწკაპუნების ალბათობას, ჩვენ შევამჩნიეთ, რომ მოდელში შეყვანის მცირე შეცდომები იწვევს ძალიან ცუდ პროგნოზებს. როდესაც Google-ის მასშტაბით ამ პრობლემის მოწმე ხარ, ხვდები, რომ პრობლემა უნივერსალურია.

ამ გამოცდილებამ ძლიერად ჩამოაყალიბა ჩემი კვლევის ფოკუსი და მე გავატარე ჩემი დრო ჰარვარდში იმის გამოკვლევისთვის, თუ რატომ უშვებენ AI მოდელები შეცდომებს და, რაც მთავარია, როგორ შემექმნა ალგორითმები, რომლებიც შეძლებენ მოდელებს შეცდომების დაშვებისგან. ამან, რა თქმა უნდა, გამოიწვია მეტი "აჰა" მომენტები და, საბოლოოდ, ძლიერი ინტელექტის შექმნა.

შეგიძლიათ გაგიზიაროთ ძლიერი ინტელექტის წარმოშობის ისტორია?

ძლიერი დაზვერვა დაიწყო კვლევით, თუ რა იყო თავდაპირველად თეორიული პრობლემა: რა გარანტიები შეიძლება გვქონდეს AI მოდელების გამოყენებით მიღებული გადაწყვეტილებებისთვის. კოჯინი ჰარვარდის სტუდენტი იყო და ჩვენ ერთად ვმუშაობდით, თავდაპირველად ვწერდით კვლევით ნაშრომებს. ასე რომ, ის იწყება ნაშრომების წერით, რომლებიც ასახავს რა არის პრინციპულად შესაძლებელი და შეუძლებელი თეორიულად. ეს შედეგები მოგვიანებით გაგრძელდა ალგორითმებისა და მოდელების შემუშავების პროგრამაში, რომლებიც გამძლეა ხელოვნური ინტელექტის წარუმატებლობისთვის. შემდეგ ჩვენ ვაშენებთ სისტემებს, რომლებსაც შეუძლიათ ამ ალგორითმების პრაქტიკაში გაშვება. ამის შემდეგ, კომპანიის შექმნა, სადაც ორგანიზაციებს შეეძლოთ მსგავსი სისტემის გამოყენება, ბუნებრივი შემდეგი ნაბიჯი იყო.

ბევრი საკითხი, რომელსაც Robust Intelligence წყვეტს, არის ჩუმი შეცდომები, რა არის ეს და რა ხდის მათ ასე საშიშს?

სანამ ჩუმი შეცდომების ტექნიკურ განმარტებას მივცემთ, ღირს ნაბიჯის გადადგმა და იმის გაგება, თუ რატომ უნდა ვიზრუნოთ პირველ რიგში ხელოვნური ინტელექტის შეცდომებზე. მიზეზი, რის გამოც ჩვენ ვზრუნავთ ხელოვნური ინტელექტის მოდელების შეცდომებზე, არის ამ შეცდომების შედეგები. ჩვენი სამყარო იყენებს ხელოვნურ ინტელექტს კრიტიკული გადაწყვეტილებების ავტომატიზაციისთვის: ვინ იღებს ბიზნეს სესხს და რა საპროცენტო განაკვეთით, ვინ იღებს ჯანმრთელობის დაზღვევის დაფარვას და რა განაკვეთით, რომელ რაიონებში უნდა პატრულირდეს პოლიცია, ვინ იქნება სამუშაოს საუკეთესო კანდიდატი, როგორ უნდა მოვაწყოთ აეროპორტის დაცვა და ა.შ. ის ფაქტი, რომ ხელოვნური ინტელექტის მოდელები უკიდურესად მიდრეკილია შეცდომებისადმი, ნიშნავს, რომ ამ კრიტიკული გადაწყვეტილებების ავტომატიზაციისას ჩვენ მემკვიდრეობით ვიღებთ დიდ რისკს. Robust Intelligence-ში ჩვენ ამას ვუწოდებთ "AI რისკს" და ჩვენი მისიაა კომპანიაში AI რისკის აღმოფხვრა.

ჩუმი შეცდომები არის ხელოვნური ინტელექტის მოდელების შეცდომები, სადაც AI მოდელი იღებს შეყვანას და აწარმოებს წინასწარმეტყველებას ან გადაწყვეტილებას, რომელიც არასწორია ან მიკერძოებული, როგორც გამომავალი. ასე რომ, გარეგნულად, სისტემისთვის ყველაფერი კარგად გამოიყურება, რადგან AI მოდელი აკეთებს იმას, რაც უნდა გააკეთოს ფუნქციური პერსპექტივიდან. მაგრამ პროგნოზი ან გადაწყვეტილება მცდარია. ეს შეცდომები ჩუმად არის, რადგან სისტემამ არ იცის, რომ შეცდომაა. ეს შეიძლება იყოს ბევრად უარესი, ვიდრე ის შემთხვევა, როდესაც AI მოდელი არ აწარმოებს გამოსავალს, რადგან შეიძლება დიდი დრო დასჭირდეს ორგანიზაციებს, რათა გააცნობიერონ, რომ მათი AI სისტემა გაუმართავია. შემდეგ, ხელოვნური ინტელექტის რისკი ხდება ხელოვნური ინტელექტის ჩავარდნა, რამაც შეიძლება გამოიწვიოს საშინელი შედეგები.

Robust Intelligence-მა არსებითად შეიმუშავა AI Firewall, იდეა, რომელიც ადრე შეუძლებლად ითვლებოდა. რატომ არის ეს ასეთი ტექნიკური გამოწვევა?

ერთი მიზეზი, რის გამოც AI Firewall არის ასეთი გამოწვევა, არის ის, რომ ის ეწინააღმდეგება იმ პარადიგმას, რომელიც ML საზოგადოებას ჰქონდა. ML საზოგადოების წინა პარადიგმა იყო, რომ შეცდომების აღმოსაფხვრელად საჭიროა მეტი მონაცემების მიწოდება, მათ შორის ცუდი მონაცემები მოდელებისთვის. ამით მოდელები ივარჯიშებენ საკუთარ თავს და ისწავლიან შეცდომების გამოსწორებას. ამ მიდგომის პრობლემა ის არის, რომ მოდელის სიზუსტე მკვეთრად იკლებს. მაგალითად, სურათების ყველაზე ცნობილი შედეგები იწვევს ხელოვნური ინტელექტის მოდელის სიზუსტის დაცემას 98.5%-დან დაახლოებით 37%-მდე.

AI Firewall გთავაზობთ განსხვავებულ გადაწყვეტას. შეცდომის იდენტიფიკაციის პრობლემას პროგნოზის შექმნის როლიდან ვაშორებთ, რაც იმას ნიშნავს, რომ ფაირვოლს შეუძლია ფოკუსირება მოახდინოს ერთ კონკრეტულ ამოცანაზე: დაადგინოს, გამოიმუშავებს თუ არა მონაცემთა წერტილი მცდარ პროგნოზს.

ეს თავისთავად გამოწვევა იყო, ერთი მონაცემთა წერტილის შესახებ პროგნოზის გაკეთების სირთულის გამო. არსებობს მრავალი მიზეზი, რის გამოც მოდელები უშვებენ შეცდომებს, ამიტომ ტექნოლოგიის შექმნა, რომელსაც შეუძლია ამ შეცდომების პროგნოზირება, ადვილი საქმე არ იყო. ჩვენ ძალიან გაგვიმართლა, რომ გვყავს ინჟინრები.

როგორ შეუძლია სისტემას დაეხმაროს ხელოვნური ინტელექტის მიკერძოების თავიდან აცილებაში?

მოდელის მიკერძოება წარმოიქმნება შეუსაბამობა მონაცემებს შორის, რომლებზეც მოდელმა ივარჯიშა და იმ მონაცემებს შორის, რომლებსაც ის იყენებს პროგნოზების გასაკეთებლად. AI რისკს რომ დავუბრუნდეთ, მიკერძოება არის მთავარი საკითხი, რომელიც მიეკუთვნება ჩუმ შეცდომებს. მაგალითად, ეს ხშირად ეხება ნაკლებად წარმოდგენილ მოსახლეობას. მოდელს შეიძლება ჰქონდეს მიკერძოება, რადგან მან დაინახა ნაკლები მონაცემები ამ პოპულაციისგან, რაც მკვეთრად იმოქმედებს ამ მოდელის შესრულებაზე და მისი პროგნოზების სიზუსტეზე. AI Firewall-ს შეუძლია გააფრთხილოს ორგანიზაციები მონაცემთა ამ შეუსაბამობის შესახებ და დაეხმაროს მოდელს სწორი გადაწყვეტილებების მიღებაში.

რა არის სხვა რისკები ორგანიზაციებისთვის, რომელთა თავიდან აცილებასაც AI firewall ეხმარება?

ნებისმიერი კომპანია, რომელიც იყენებს AI-ს გადაწყვეტილებების, განსაკუთრებით კრიტიკული გადაწყვეტილებების ავტომატიზაციისთვის, ავტომატურად შემოაქვს რისკი. ცუდი მონაცემები შეიძლება იყოს ისეთივე უმნიშვნელო, როგორც ნულის შეყვანა ერთის ნაცვლად და მაინც გამოიწვიოს მნიშვნელოვანი შედეგები. იქნება ეს რისკი არასწორი სამედიცინო პროგნოზები თუ მცდარი პროგნოზები სესხის გაცემის შესახებ, AI Firewall ეხმარება ორგანიზაციებს თავიდან აიცილონ რისკი მთლიანად.

არის კიდევ რაიმე, რისი გაზიარებაც გსურთ ძლიერი ინტელექტის შესახებ?

ძლიერი დაზვერვა სწრაფად იზრდება და ჩვენ ვიღებთ უამრავ შესანიშნავ კანდიდატს, რომლებიც განაცხადებენ თანამდებობებზე. მაგრამ ის, რაც მე ნამდვილად მინდა ხაზგასმით აღვნიშნო მათთვის, ვინც განიხილავს განაცხადის შეტანას, არის ის, რომ ყველაზე მნიშვნელოვანი თვისება, რომელსაც ჩვენ ვეძებთ კანდიდატებში, არის მათი გატაცება მისიის მიმართ. ჩვენ შევხვდებით უამრავ კანდიდატს, რომლებიც ტექნიკურად ძლიერები არიან, ასე რომ, ეს ნამდვილად დამოკიდებულია იმაზე, არის თუ არა ისინი გატაცებული AI რისკის აღმოფხვრაზე, რათა სამყარო უფრო უსაფრთხო და უკეთესი ადგილი გახდეს.

მსოფლიოში, რომლისკენაც მივდივართ, ბევრი გადაწყვეტილება, რომელსაც ამჟამად ადამიანები იღებენ, ავტომატიზირებული იქნება. მოგვწონს თუ არა, ეს ფაქტია. იმის გათვალისწინებით, რომ ყველა ჩვენგანს Robust Intelligence-ში გვსურს ავტომატური გადაწყვეტილებების პასუხისმგებლობით მიღება. ასე რომ, ყველას, ვინც აღფრთოვანებულია გავლენის მოხდენით, ვისაც ესმის, თუ როგორ შეიძლება ეს გავლენა მოახდინოს ადამიანების ცხოვრებაზე, არის კანდიდატი, რომელსაც ჩვენ ვეძებთ შეუერთდეს Robust Intelligence-ს. ჩვენ ვეძებთ ამ ვნებას. ჩვენ ვეძებთ ადამიანებს, რომლებიც შექმნიან ამ ტექნოლოგიას, რომელსაც მთელი მსოფლიო გამოიყენებს.

გმადლობთ შესანიშნავი ინტერვიუსთვის, მომეწონა გამეგო თქვენი შეხედულებები ხელოვნური ინტელექტის მიკერძოების თავიდან აცილებისა და ხელოვნური ინტელექტის ფაიერ კედელის საჭიროების შესახებ. მკითხველებმა, რომლებსაც სურთ მეტი გაიგონ, უნდა ეწვიონ ძლიერი დაზვერვა.

unite.AI-ს დამფუძნებელი პარტნიორი და წევრი Forbes-ის ტექნოლოგიური საბჭო, ანტუანი არის ა ფუტურისტი რომელიც გატაცებულია ხელოვნური ინტელექტისა და რობოტიკის მომავლის მიმართ.

ის ასევე არის დამფუძნებელი Securities.io, ვებსაიტი, რომელიც ფოკუსირებულია დამრღვევ ტექნოლოგიებში ინვესტირებაზე.