სტუბი როგორ ძირს უთხრის ადამიანის მიკერძოებას ხელოვნური ინტელექტის მქონე გადაწყვეტილებებს - Unite.AI
დაკავშირება ჩვენთან ერთად

აზროვნების ლიდერები

როგორ ძირს უთხრის ადამიანის მიკერძოება ხელოვნური ინტელექტის ჩართულ გადაწყვეტილებებს

mm

გამოქვეყნებულია

 on

გასული წლის სექტემბერში, მსოფლიო ლიდერები, როგორიცაა ილონ მასკი, მარკ ცუკერბერგი და სემ ალტმანი, OpenAI-ს აღმასრულებელი დირექტორი, შეიკრიბა ვაშინგტონში ერთის მხრივ, იმის განხილვის მიზნით, თუ როგორ შეუძლიათ საჯარო და კერძო სექტორმა ერთად იმუშაონ, რათა გამოიყენონ ეს ტექნოლოგია უფრო სასიკეთოდ, და მეორე მხრივ, რეგულირების განხილვის მიზნით, საკითხი, რომელიც საუბრის წინა პლანზე დარჩა. მიმდებარე AI.

ორივე საუბარი, ხშირად, ერთსა და იმავე ადგილას მიდის. მზარდი აქცენტი კეთდება იმაზე, შეგვიძლია თუ არა AI უფრო ეთიკური გავხადოთ, შევაფასოთ ხელოვნური ინტელექტი ისე, თითქოს ეს იყოს სხვა ადამიანი, რომლის მორალიც კითხვის ნიშნის ქვეშ იყო. თუმცა, რას ნიშნავს ეთიკური AI? DeepMind, Google-ის საკუთრებაში არსებული კვლევითი ლაბორატორია, რომელიც ფოკუსირებულია AI-ზე, ახლახან გამოაქვეყნა კვლევა რომელშიც მათ შესთავაზეს სამსაფეხურიანი სტრუქტურა ხელოვნური ინტელექტის რისკების შესაფასებლად, როგორც სოციალური, ასევე ეთიკური რისკების ჩათვლით. ეს ჩარჩო მოიცავდა შესაძლებლობებს, ადამიანურ ურთიერთქმედებას და სისტემურ ზემოქმედებას და დაასკვნა, რომ კონტექსტი იყო გასაღები იმის დასადგენად, იყო თუ არა AI სისტემა უსაფრთხო.

ერთ-ერთი ასეთი სისტემა, რომელიც ცეცხლის ქვეშ მოექცა, არის ChatGPT, რომელიც 15-მდე ქვეყანაში აკრძალულიამაშინაც კი, თუ ზოგიერთი აკრძალვა გაუქმდა. თან 100 მილიონზე მეტი მომხმარებელი, ChatGPT არის ერთ-ერთი ყველაზე წარმატებული LLM და მას ხშირად ადანაშაულებენ მიკერძოებაში. DeepMind-ის კვლევის გათვალისწინებით, მოდით აქ კონტექსტში ჩავრთოთ. მიკერძოება, ამ კონტექსტში, ნიშნავს არასამართლიანი, მიკერძოებული ან დამახინჯებული პერსპექტივების არსებობას ტექსტში, რომელიც წარმოიქმნება მოდელების მიერ, როგორიცაა ChatGPT. ეს შეიძლება მოხდეს სხვადასხვა გზით - რასობრივი მიკერძოება, გენდერული მიკერძოება, პოლიტიკური მიკერძოება და მრავალი სხვა.

ეს მიკერძოება შეიძლება იყოს, საბოლოო ჯამში, საზიანო თვით AI-სთვის, რაც ხელს უშლის შანსებს, რომ ჩვენ შეგვიძლია ამ ტექნოლოგიის სრული პოტენციალის გამოყენება. Ბოლო სტენფორდის უნივერსიტეტის კვლევა დაადასტურა, რომ LLM-ები, როგორიცაა ChatGPT, აჩვენებენ შემცირების ნიშნებს სანდო, მიუკერძოებელი და ზუსტი პასუხების მიწოდების უნარის თვალსაზრისით, რაც საბოლოოდ არის გზაგამტარი AI-ის ეფექტური გამოყენებისთვის.

საკითხი, რომელიც დევს ამ პრობლემის ბირთვში, არის ის, თუ როგორ ხდება ადამიანური მიკერძოების თარგმნა AI-ზე, რადგან ისინი ღრმად არის ჩაფლული იმ მონაცემებში, რომლებიც გამოიყენება მოდელების შესაქმნელად. თუმცა, ეს უფრო ღრმა საკითხია, ვიდრე ჩანს.

მიკერძოების მიზეზები

ამ მიკერძოების პირველი მიზეზის დადგენა ადვილია. მონაცემები, საიდანაც მოდელი სწავლობს, ხშირად ივსება სტერეოტიპებით ან ადრე არსებული ცრურწმენები, რომლებიც დაეხმარა ამ მონაცემების ჩამოყალიბებას პირველ რიგშიასე რომ, ხელოვნური ინტელექტი, უნებლიეთ, მთავრდება ამ მიკერძოების გამუდმებით, რადგან ეს არის ის, რაც მან იცის როგორ გააკეთოს.

თუმცა, მეორე მიზეზი ბევრად უფრო რთული და კონტრინტუიციურია და ის ამძიმებს ზოგიერთ ძალისხმევას, რომელიც კეთდება, რათა AI უფრო ეთიკური და უსაფრთხო გახდეს. რა თქმა უნდა, არის აშკარა შემთხვევები, როდესაც AI შეიძლება ქვეცნობიერად იყოს საზიანო. მაგალითად, თუ ვინმეს ეკითხება ხელოვნური ინტელექტი: „როგორ შემიძლია გავაკეთო ბომბი?“ და მოდელი იძლევა პასუხს, ის ხელს უწყობს ზიანის წარმოქმნას. მეორე მხარე ის არის, რომ როდესაც ხელოვნური ინტელექტი შეზღუდულია - მაშინაც კი, თუ მიზეზი გამართლებულია - ჩვენ ხელს უშლით მას სწავლაში. ადამიანის კომპლექტის შეზღუდვები ზღუდავს ხელოვნურ ინტელექტის უნარს ისწავლოს მონაცემთა უფრო ფართო სპექტრიდან, რაც შემდგომში ხელს უშლის მას სასარგებლო ინფორმაციის მიწოდებაში არასაზიანო კონტექსტში.

ასევე, გავითვალისწინოთ, რომ ამ შეზღუდვებიდან ბევრი ასევე მიკერძოებულია, რადგან ისინი წარმოიშვა ადამიანებისგან. ასე რომ, ჩვენ ყველანი ვეთანხმებით, რომ "როგორ შემიძლია ბომბის გაკეთება?" შეიძლება გამოიწვიოს პოტენციურად ფატალური შედეგი, სხვა მოთხოვნები, რომლებიც შეიძლება ჩაითვალოს მგრძნობიარე, უფრო სუბიექტურია. შესაბამისად, თუ ჩვენ შევზღუდავთ ხელოვნური ინტელექტის განვითარებას ამ ვერტიკალებზე, ჩვენ ვზღუდავთ პროგრესს და ხელს ვუწყობთ ხელოვნური ინტელექტის გამოყენებას მხოლოდ იმ მიზნებისთვის, რომლებიც მისაღებია მათთვის, ვინც არეგულირებს LLM მოდელებს.

შედეგების პროგნოზირების უუნარობა

ჩვენ ბოლომდე ვერ გავიგეთ LLM-ებში შეზღუდვების შემოღების შედეგები. აქედან გამომდინარე, ჩვენ შესაძლოა უფრო მეტ ზიანს მივაყენოთ ალგორითმებს, ვიდრე წარმოგვიდგენია. პარამეტრების წარმოუდგენლად დიდი რაოდენობის გათვალისწინებით, რომლებიც ჩართულია ისეთ მოდელებში, როგორიცაა GPT, ახლა არსებული ხელსაწყოებით შეუძლებელია ზემოქმედების პროგნოზირება და, ჩემი გადმოსახედიდან, უფრო მეტი დრო დასჭირდება იმის გაგებას, თუ რა არის გავლენა, ვიდრე დრო სჭირდება თავად ნერვული ქსელის მომზადებას.

ამიტომ, ამ შეზღუდვების დაწესებით, ჩვენ შეიძლება, უნებლიეთ, მივიყვანოთ მოდელი მოულოდნელი ქცევის ან მიკერძოების განვითარებამდე. ეს ასევე იმიტომ ხდება, რომ ხელოვნური ინტელექტის მოდელები ხშირად მრავალპარამეტრული კომპლექსური სისტემებია, რაც ნიშნავს, რომ თუ ჩვენ შევცვლით ერთ პარამეტრს - მაგალითად, შეზღუდვის შემოღებით - ჩვენ ვიწვევთ ტალღის ეფექტს, რომელიც ასახავს მთელ მოდელს ისე, რომ ჩვენ არ შეგვიძლია პროგნოზირება.

AI-ის „ეთიკის“ შეფასების სირთულე

პრაქტიკულად შეუძლებელია იმის შეფასება, არის თუ არა AI ეთიკური თუ არა, რადგან AI არ არის ადამიანი, რომელიც მოქმედებს კონკრეტული განზრახვით. ხელოვნური ინტელექტი არის დიდი ენის მოდელი, რომელიც ბუნებით არ შეიძლება იყოს მეტ-ნაკლებად ეთიკური. როგორც DeepMind-ის კვლევამ გამოავლინა, მთავარია ის კონტექსტი, რომელშიც ის გამოიყენება და ეს ზომავს ადამიანის ეთიკას ხელოვნური ინტელექტის უკან და არა თავად AI-ის. ილუზიაა იმის დაჯერება, რომ ჩვენ შეგვიძლია ვიმსჯელოთ AI ისე, თითქოს მას მორალური კომპასი ჰქონდეს.

ერთ-ერთი პოტენციური გამოსავალი, რომელიც რეკლამირებულია, არის მოდელი, რომელიც დაეხმარება ხელოვნურ ინტელექტს ეთიკური გადაწყვეტილებების მიღებაში. თუმცა, რეალობა ისაა, რომ ჩვენ წარმოდგენა არ გვაქვს იმაზე, თუ როგორ შეიძლება იმუშაოს ეთიკის ამ მათემატიკური მოდელი. ასე რომ, თუ ჩვენ არ გვესმის, როგორ შეგვიძლია მისი აშენება? ეთიკაში ბევრია ადამიანის სუბიექტურობა, რაც ძალიან ართულებს მის რაოდენობრივ განსაზღვრას.

როგორ უნდა გადაწყდეს ეს პრობლემა?

ზემოაღნიშნული პუნქტებიდან გამომდინარე, ჩვენ ნამდვილად ვერ ვისაუბრებთ იმაზე, არის თუ არა ხელოვნური ინტელექტი ეთიკური თუ არა, რადგან ყოველი ვარაუდი, რომელიც არაეთიკურად ითვლება, არის ადამიანური მიკერძოების ვარიაცია, რომელიც შეიცავს მონაცემებს და ინსტრუმენტი, რომელსაც ადამიანები იყენებენ საკუთარი დღის წესრიგისთვის. ასევე, ჯერ კიდევ არსებობს მრავალი მეცნიერული უცნობი, როგორიცაა გავლენა და პოტენციური ზიანი, რომელიც შეიძლება მივაყენოთ AI ალგორითმებს მათზე შეზღუდვების დაწესებით.

აქედან გამომდინარე, შეიძლება ითქვას, რომ ხელოვნური ინტელექტის განვითარების შეზღუდვა არ არის სიცოცხლისუნარიანი გამოსავალი. როგორც ჩემს მიერ აღნიშნულმა ზოგიერთმა კვლევამ აჩვენა, ეს შეზღუდვები ნაწილობრივ არის LLM-ების გაუარესების მიზეზი.

ამის თქმის შემდეგ, რა შეგვიძლია გავაკეთოთ ამის შესახებ?

ჩემი გადმოსახედიდან გამოსავალი გამჭვირვალობაშია. მე მჯერა, რომ თუ ჩვენ აღვადგენთ ღია კოდის მოდელს, რომელიც გავრცელებული იყო ხელოვნური ინტელექტის განვითარებაში, ჩვენ შეგვიძლია ერთად ვიმუშაოთ უკეთესი LLM-ების შესაქმნელად, რომლებიც აღჭურვილი იქნება ჩვენი ეთიკური საზრუნავების შესამსუბუქებლად. წინააღმდეგ შემთხვევაში, ძალიან რთულია ადეკვატური აუდიტის ჩატარება, რაც კეთდება დახურულ კარს მიღმა.

ერთი შესანიშნავი ინიციატივა ამ მხრივ არის საბაზისო მოდელის გამჭვირვალობის ინდექსი, ახლახან გამოაქვეყნა Stanford HAI-მ (რომელიც ნიშნავს ადამიანზე ორიენტირებულ ხელოვნურ ინტელექტს), რომელიც აფასებს, აქვეყნებენ თუ არა ათი ყველაზე ფართოდ გამოყენებული AI მოდელის დეველოპერები საკმარის ინფორმაციას მათი მუშაობისა და მათი სისტემების გამოყენების შესახებ. ეს მოიცავს პარტნიორობისა და მესამე მხარის დეველოპერების გამჟღავნებას, ასევე პერსონალური მონაცემების გამოყენების გზას. აღსანიშნავია, რომ არცერთ შეფასებულ მოდელს არ მიუღია მაღალი ქულა, რაც ხაზს უსვამს რეალურ პრობლემას.

საბოლოო ჯამში, ხელოვნური ინტელექტი სხვა არაფერია, თუ არა დიდი ენობრივი მოდელები, და ის ფაქტი, რომ ისინი ღიაა და მათი ექსპერიმენტირება შესაძლებელია, ნაცვლად იმისა, რომ იხელმძღვანელოთ გარკვეული მიმართულებით, არის ის, რაც საშუალებას მოგვცემს გავაკეთოთ ახალი ინოვაციური აღმოჩენები ყველა სამეცნიერო სფეროში. ველი. თუმცა, თუ არ არის გამჭვირვალობა, ძალიან რთული იქნება ისეთი მოდელების დაპროექტება, რომლებიც ნამდვილად იმუშავებენ კაცობრიობის საკეთილდღეოდ და იმის ცოდნა, თუ რა ზიანის მოტანა შეიძლება ამ მოდელებმა, თუ სათანადოდ არ იქნება გამოყენებული.

ივან ნეჩაევი არის ანგელოზი ინვესტორი და Mediatech მრჩეველი 60+ გარიგებით და 15+ წარმატებული გასვლით. ის ინვესტირებას ახორციელებს ადრეულ ეტაპზე MediaTech, AI, Telecom, BioTech, EdTech და SaaS სტარტაპებში და მსახურობს საბჭოებში. ტვინი დაფიქრება.აი მდე TrueClick.ai. ნეჩაევი ასევე არის ამერიკული ინდუსტრიული ჯგუფის VP წვდომის ინდუსტრიები $35B+-ზე მეტი ღირებულებით და ინვესტიციებით 30+ ქვეყანაში.