სტუბი რას ნიშნავს თეთრი სახლის AI უფლებების შესახებ კანონი ამერიკისთვის და დანარჩენი მსოფლიოსთვის - Unite.AI
დაკავშირება ჩვენთან ერთად

ეთიკის

რას ნიშნავს თეთრი სახლის AI უფლებების შესახებ კანონი ამერიკისთვის და დანარჩენი მსოფლიოსთვის

mm
განახლებულია on

თეთრი სახლის მეცნიერებისა და ტექნოლოგიების პოლიტიკის ოფისი (OSTP) ცოტა ხნის წინ გამოუშვა თეთრი ფურცელი სახელწოდებით „ინტელექტის ხელოვნური ინტელექტის უფლებათა კანონპროექტის გეგმა: ავტომატური სისტემების მოქმედება ამერიკელი ხალხისთვის“. ეს ჩარჩო გამოვიდა ერთი წლის შემდეგ მას შემდეგ, რაც OSTP-მა გამოაცხადა პროცესის დაწყების შესახებ, რათა შეიქმნას „უფლებათა კანონპროექტი ხელოვნური ინტელექტის მქონე სამყაროსთვის“.

ამ კანონპროექტის წინასიტყვაობა ნათლად ასახავს იმას, რომ თეთრ სახლს ესმის საზოგადოებისთვის განხორციელებული გარდაუვალი საფრთხეები, რასაც ხელოვნური ხელოვნური ინტელექტი წარმოადგენს. ეს არის ის, რაც ნათქვამია წინასიტყვაობაში:

„დღეს დემოკრატიის წინაშე არსებულ დიდ გამოწვევებს შორის არის ტექნოლოგიების, მონაცემებისა და ავტომატიზირებული სისტემების გამოყენება ისეთი გზებით, რომლებიც საფრთხეს უქმნის ამერიკის საზოგადოების უფლებებს. ძალიან ხშირად, ეს ინსტრუმენტები გამოიყენება ჩვენი შესაძლებლობების შესაზღუდად და კრიტიკულ რესურსებზე ან სერვისებზე წვდომის თავიდან ასაცილებლად. ეს პრობლემები კარგად არის დოკუმენტირებული. ამერიკაში და მთელ მსოფლიოში, სისტემები, რომლებიც უნდა დაეხმარონ პაციენტთა მოვლას, აღმოჩნდა არაუსაფრთხო, არაეფექტური ან მიკერძოებული. აღმოჩნდა, რომ დაქირავებისა და საკრედიტო გადაწყვეტილების მიღებისას გამოყენებული ალგორითმები ასახავს და ასახავს არსებულ არასასურველ უთანასწორობას ან ახალ მავნე მიკერძოებასა და დისკრიმინაციას. გადაუმოწმებელი სოციალური მედიის მონაცემების შეგროვება გამოიყენებოდა ადამიანების შესაძლებლობების საფრთხის წინაშე, მათი კონფიდენციალურობის შელახვის ან მათი საქმიანობის თვალყურის დევნებისთვის — ხშირად მათი ცოდნისა და თანხმობის გარეშე“.

რას ნიშნავს ეს უფლებათა ბილი და მის მიერ შემოთავაზებული ჩარჩო ხელოვნური ინტელექტის მომავლისთვის, გასარკვევია. რაც ჩვენ ვიცით არის ის, რომ ახალი მოვლენები მუდმივად ექსპონენციალური ტემპით ჩნდება. ის, რაც ოდესღაც შეუძლებლად ითვლებოდა, მყისიერი ენის თარგმნა ახლა რეალობაა და ამავდროულად ჩვენ გვაქვს რევოლუცია ბუნებრივი ენის გაგებაში (NLU), რომელსაც ხელმძღვანელობს OpenAI და მათი ცნობილი პლატფორმა. GPT-3.

მას შემდეგ ჩვენ ვნახეთ სურათების მყისიერი გენერაცია ტექნიკის საშუალებით, სახელწოდებით სტაბილური დიფუზია, რომელიც შეიძლება მალე გახდეს მთავარი სამომხმარებლო პროდუქტი. არსებითად, ამ ტექნოლოგიით მომხმარებელს შეუძლია უბრალოდ აკრიფოს ნებისმიერი შეკითხვა, რომლის წარმოდგენაც შეუძლია, და მაგიის მსგავსად AI წარმოქმნის სურათს, რომელიც შეესაბამება მოთხოვნას.

ექსპონენციური ზრდის და აჩქარებული დაბრუნების კანონი მალე დადგება დრო, როდესაც ხელოვნური ინტელექტი დაიპყრობს ყოველდღიური ცხოვრების ყველა ასპექტს. პირები და კომპანიები, რომლებმაც ეს იციან და სარგებლობენ ამ პარადიგმის ცვლილებით, მოგებას მიიღებენ. სამწუხაროდ, საზოგადოების დიდი ნაწილი შეიძლება გახდეს ხელოვნური ინტელექტის არამიზნობრივი და გაუთვალისწინებელი შედეგების მსხვერპლი.

AI-ის უფლებების კანონპროექტი მიზნად ისახავს ხელი შეუწყოს პოლიტიკისა და პრაქტიკის შემუშავებას, რომელიც იცავს სამოქალაქო უფლებებს და ხელს უწყობს დემოკრატიული ღირებულებების განვითარებას, დანერგვასა და მართვას ავტომატური სისტემების მშენებლობაში. როგორ შეედრება ეს კანონპროექტი ჩინეთის მიდგომა გასათვალისწინებელია, მაგრამ ეს არის უფლებათა კანონპროექტი, რომელსაც აქვს ხელოვნური ინტელექტის ლანდშაფტის შეცვლის პოტენციალი და ის, სავარაუდოდ, იქნება მიღებული მოკავშირეების მიერ, როგორიცაა ავსტრალია, კანადა და ევროკავშირი.

როგორც ნათქვამია, AI უფლებების შესახებ კანონი არასავალდებულოა და არ წარმოადგენს აშშ-ს მთავრობის პოლიტიკას. ის არ ცვლის, არ ცვლის ან ხელმძღვანელობს რაიმე არსებული წესდების, რეგულაციების, პოლიტიკის ან საერთაშორისო დოკუმენტის ინტერპრეტაციას. რას ნიშნავს ეს არის ის, რომ საწარმოებსა და მთავრობებს ევალებათ დაიცვან ამ თეთრი ქაღალდში ასახული პოლიტიკა.

ამ კანონპროექტმა გამოავლინა ხუთი პრინციპი, რომლებიც უნდა ხელმძღვანელობდეს ავტომატური სისტემების დიზაინს, გამოყენებას და განლაგებას, რათა დაიცვან ამერიკელი საზოგადოება ხელოვნური ინტელექტის ეპოქაში, ქვემოთ განვიხილავთ 5 პრინციპს:

1. უსაფრთხო და ეფექტური სისტემები

არსებობს აშკარა და ამჟამინდელი საშიშროება საზოგადოებისთვის შეურაცხმყოფელი AI სისტემებით, განსაკუთრებით ისეთებით, რომლებიც ეყრდნობა ღრმა სწავლებას. ამის მოგვარებას ცდილობდნენ შემდეგი პრინციპებით:

„თქვენ უნდა იყოთ დაცული არაეფექტური სისტემებისგან სახიფათო. ავტომატური სისტემები უნდა განვითარდეს სხვადასხვა თემის, დაინტერესებული მხარეების და დომენის ექსპერტების კონსულტაციით, რათა დადგინდეს სისტემის პრობლემები, რისკები და პოტენციური ზემოქმედება. სისტემებმა უნდა გაიარონ განლაგების წინ ტესტირება, რისკის იდენტიფიკაცია და შერბილება, და მუდმივი მონიტორინგი, რომელიც ადასტურებს, რომ ისინი უსაფრთხო და ეფექტურია მათი დანიშნულებისამებრ გამოყენების, სახიფათო შედეგების შერბილების, მათ შორის მიზნობრივი გამოყენების მიღმა, და დომენის სპეციფიკური სტანდარტების დაცვაზე. ამ დამცავი ზომების შედეგები უნდა მოიცავდეს სისტემის არ განლაგების ან სისტემის გამოყენებისგან ამოღების შესაძლებლობას. ავტომატური სისტემები არ უნდა იყოს შემუშავებული განზრახვით ან გონივრულად მოსალოდნელი შესაძლებლობით, რომ საფრთხე შეუქმნას თქვენს უსაფრთხოებას ან თქვენი საზოგადოების უსაფრთხოებას. ისინი უნდა იყოს შემუშავებული ისე, რომ პროაქტიულად დაგიცვათ ავტომატური სისტემების გაუთვალისწინებელი, მაგრამ განჭვრეტადი გამოყენების ან ზემოქმედებისგან გამოწვეული ზიანისგან. თქვენ დაცული უნდა იყოთ მონაცემთა შეუსაბამო ან შეუსაბამო გამოყენებისგან ავტომატური სისტემების დიზაინში, განვითარებასა და დანერგვაში, აგრეთვე მათი ხელახალი გამოყენების გართულებული ზიანისგან. უნდა განხორციელდეს დამოუკიდებელი შეფასება და მოხსენება, რომელიც ადასტურებს, რომ სისტემა არის უსაფრთხო და ეფექტური, პოტენციური ზიანის შესამცირებლად გადადგმული ნაბიჯების შესახებ მოხსენების ჩათვლით, უნდა განხორციელდეს და შედეგები გამოქვეყნდეს შეძლებისდაგვარად.”

2. ალგორითმული დისკრიმინაციის დაცვა

ეს პოლიტიკა ეხება ოთახში მყოფ ზოგიერთ სპილოს, როდესაც საქმე ეხება საწარმოებს, რომლებიც ძალადობენ ინდივიდებზე.

AI სისტემების გამოყენებით პერსონალის დაქირავების საერთო პრობლემაა ის, რომ ღრმა სწავლის სისტემა ხშირად ივარჯიშებს მიკერძოებულ მონაცემებზე დასაქმების დასკვნების მისაღწევად. ეს არსებითად ნიშნავს, რომ წარსულში დაქირავების ცუდი პრაქტიკა გამოიწვევს გენდერულ ან რასობრივ დისკრიმინაციას დამქირავებელი აგენტის მიერ. ერთმა კვლევამ აჩვენა ტრენინგის მონაცემების დეგენდერის მცდელობის სირთულე.

მთავრობების მიერ მიკერძოებული მონაცემების კიდევ ერთი მთავარი პრობლემაა არასწორი პატიმრობის რისკი, ან კიდევ უარესი დანაშაულის პროგნოზირების ალგორითმები რომლებიც უმცირესობებს უფრო მეტ პატიმრობას სთავაზობენ.

„არ უნდა შეექმნათ დისკრიმინაცია ალგორითმებით და სისტემები უნდა იყოს გამოყენებული და შემუშავებული სამართლიანად. ალგორითმული დისკრიმინაცია ხდება მაშინ, როდესაც ავტომატური სისტემები ხელს უწყობენ გაუმართლებელ განსხვავებულ მოპყრობას ან ზემოქმედებას ადამიანებზე მათი რასის, ფერის, ეროვნების, სქესის (მათ შორის ორსულობა, მშობიარობა და მასთან დაკავშირებული სამედიცინო პირობები, გენდერული იდენტობა, ინტერსქესობრივი სტატუსი და სექსუალური ორიენტაცია) რელიგიის, ასაკის, ეროვნული წარმომავლობა, ინვალიდობა, ვეტერანის სტატუსი, გენეტიკური ინფორმაცია ან კანონით დაცული ნებისმიერი სხვა კლასიფიკაცია. კონკრეტული გარემოებებიდან გამომდინარე, როგორიცაა ალგორითმული დისკრიმინაცია, შეიძლება დაარღვიოს სამართლებრივი დაცვა. ავტომატური სისტემების დიზაინერებმა, დეველოპერებმა და განმცხადებლებმა უნდა მიიღონ პროაქტიული და მუდმივი ზომები, რათა დაიცვან ინდივიდები და თემები ალგორითმული დისკრიმინაციისგან და გამოიყენონ და დააპროექტონ სისტემები სამართლიანი გზით. ეს დაცვა უნდა მოიცავდეს სამართლიანობის პროაქტიულ შეფასებებს, როგორც სისტემის დიზაინის ნაწილს, წარმომადგენლობითი მონაცემების გამოყენებას და დემოგრაფიული მახასიათებლების მარიონეტებისგან დაცვას, შშმ პირთათვის ხელმისაწვდომობის უზრუნველყოფას დიზაინსა და განვითარებაში, წინასწარ განლაგებასა და მიმდინარე უთანასწორობის ტესტირებასა და შერბილებაში, და მკაფიო ორგანიზაციული ზედამხედველობა. დამოუკიდებელი შეფასება და მარტივი ენით მოხსენება ალგორითმული ზემოქმედების შეფასების სახით, მათ შორის უთანასწორობის ტესტირების შედეგებისა და შერბილების შესახებ ინფორმაციის ჩათვლით, უნდა განხორციელდეს და გამოქვეყნდეს შეძლებისდაგვარად ამ დაცვის დასადასტურებლად“.

უნდა აღინიშნოს, რომ შეერთებულმა შტატებმა გამოიჩინა ძალიან გამჭვირვალე მიდგომა, როდესაც საქმე ეხება ხელოვნურ ინტელექტს, ეს არის პოლიტიკა, რომელიც შექმნილია ფართო საზოგადოების დასაცავად. აშკარა კონტრასტია ჩინეთის მიერ მიღებული ხელოვნური ინტელექტის მიდგომებისგან.

3. მონაცემთა კონფიდენციალურობა

მონაცემთა კონფიდენციალურობის ეს პრინციპი არის ის, რაც ყველაზე მეტად აისახება მოსახლეობის უდიდეს სეგმენტზე. პრინციპის პირველი ნახევარი, როგორც ჩანს, ეხება მონაცემთა შეგროვებას, კონკრეტულად ინტერნეტით შეგროვებულ მონაცემებს, რაც ცნობილი პრობლემაა განსაკუთრებით სოციალური მედიის პლატფორმებისთვის. ეს იგივე მონაცემები შეიძლება გამოყენებულ იქნას რეკლამების გასაყიდად, ან კიდევ უარესი საზოგადოებრივი განწყობის მანიპულირება და არჩევნების ზემოქმედება.

„თქვენ დაცული უნდა იყოთ მონაცემთა შეურაცხმყოფელი პრაქტიკისგან ჩაშენებული დაცვის საშუალებით და უნდა გქონდეთ სააგენტო, თუ როგორ გამოიყენება თქვენს შესახებ მონაცემები. თქვენ დაცული უნდა იყოთ კონფიდენციალურობის დარღვევისგან დიზაინის არჩევანის საშუალებით, რომელიც უზრუნველყოფს ასეთი დაცვის ნაგულისხმევ ჩართვას, მათ შორის იმის უზრუნველყოფას, რომ მონაცემთა შეგროვება შეესაბამება გონივრულ მოლოდინებს და რომ შეგროვდება მხოლოდ კონკრეტული კონტექსტისთვის მკაცრად აუცილებელი მონაცემები. ავტომატური სისტემების დიზაინერებმა, დეველოპერებმა და დეველოპერებმა უნდა მოითხოვონ თქვენი ნებართვა და პატივი სცენ თქვენს გადაწყვეტილებებს თქვენი მონაცემების შეგროვების, გამოყენების, წვდომის, გადაცემის და წაშლის შესახებ შესაბამისი გზებით და მაქსიმალურად; სადაც შეუძლებელია, უნდა იქნას გამოყენებული დიზაინის დაცვის ალტერნატიული კონფიდენციალურობა. სისტემებმა არ უნდა გამოიყენონ მომხმარებლის გამოცდილება და დიზაინის გადაწყვეტილებები, რომლებიც აბნევს მომხმარებლის არჩევანს ან ამძიმებს მომხმარებლებს ნაგულისხმევი ნაგულისხმევი კონფიდენციალურობის დამრღვევი. თანხმობა უნდა იქნას გამოყენებული მხოლოდ მონაცემთა შეგროვების გასამართლებლად იმ შემთხვევებში, როდესაც ის შეიძლება იყოს სათანადოდ და აზრობრივად. ნებისმიერი თანხმობის მოთხოვნა უნდა იყოს მოკლე, გასაგები და მარტივი ენით და მოგაწოდოთ ინფორმაციის შეგროვება და გამოყენების კონკრეტული კონტექსტი; უნდა შეიცვალოს არსებული ძნელად გასაგები შენიშვნისა და არჩევანის პრაქტიკა მონაცემთა ფართო გამოყენებისთვის“.

მონაცემთა კონფიდენციალურობის პრინციპის მეორე ნახევარი, როგორც ჩანს, ეხება ზედამხედველობას როგორც მთავრობების, ისე საწარმოების მხრიდან.

ამჟამად, საწარმოებს შეუძლიათ თანამშრომლების მონიტორინგი და ჯაშუშობა, ზოგიერთ შემთხვევაში ეს შეიძლება იყოს სამუშაო ადგილის უსაფრთხოების გაუმჯობესება, COVID-19-ის პანდემიის დროს ეს იყო ნიღბების ტარების აღსრულება, ყველაზე ხშირად ეს უბრალოდ კეთდება იმის მონიტორინგისთვის, თუ როგორ გამოიყენება სამსახურში დრო. ბევრ ასეთ შემთხვევაში თანამშრომლები გრძნობენ, რომ მათ აკონტროლებენ და აკონტროლებენ იმაზე, რაც მიჩნეულია მისაღები.

”გაძლიერებული დაცვა და შეზღუდვები მონაცემებისა და დასკვნების შესახებ, რომლებიც დაკავშირებულია მგრძნობიარე დომენებთან, მათ შორის ჯანმრთელობასთან, სამუშაოსთან, განათლებასთან, სისხლის სამართლის მართლმსაჯულებასთან და ფინანსებთან, ასევე ახალგაზრდებთან დაკავშირებული მონაცემებისთვის, თქვენ პირველ რიგში უნდა დააყენოთ. სენსიტიურ დომენებში, თქვენი მონაცემები და შესაბამისი დასკვნები უნდა იქნას გამოყენებული მხოლოდ აუცილებელი ფუნქციებისთვის და თქვენ დაცული უნდა იყოთ ეთიკური განხილვითა და გამოყენების აკრძალვებით. თქვენ და თქვენი საზოგადოებები თავისუფალი უნდა იყოთ გადაუმოწმებელი მეთვალყურეობისგან; სათვალთვალო ტექნოლოგიები უნდა ექვემდებარებოდეს გამკაცრებულ ზედამხედველობას, რომელიც მოიცავს მათი პოტენციური ზიანის მინიმუმ განლაგების წინ შეფასებას და ფარგლების ლიმიტებს კონფიდენციალურობისა და სამოქალაქო თავისუფლებების დასაცავად. უწყვეტი მეთვალყურეობა და მონიტორინგი არ უნდა იქნას გამოყენებული განათლებაში, სამუშაოში, საცხოვრებელში ან სხვა კონტექსტში, სადაც ასეთი სათვალთვალო ტექნოლოგიების გამოყენება შესაძლოა შეზღუდოს უფლებები, შესაძლებლობები ან წვდომა. შეძლებისდაგვარად, თქვენ უნდა გქონდეთ წვდომა მოხსენებაზე, რომელიც ადასტურებს, რომ თქვენი მონაცემების გადაწყვეტილებები დაცულია და უზრუნველყოფს სათვალთვალო ტექნოლოგიების პოტენციური ზემოქმედების შეფასებას თქვენს უფლებებზე, შესაძლებლობებსა თუ წვდომაზე.”

აღსანიშნავია, რომ ხელოვნური ინტელექტის გამოყენება სასიკეთოდ შეიძლება ხალხის კონფიდენციალურობის დასაცავად.

4. შენიშვნა და ახსნა

ეს უნდა იყოს იარაღისკენ მოწოდება საწარმოებისთვის, რომ განათავსონ AI ეთიკის მრჩეველთა საბჭო, ასევე ბიძგი დაჩქარდეს განვითარების ახსნადი AI. ახსნადი ხელოვნური ინტელექტი აუცილებელია იმ შემთხვევაში, თუ AI მოდელი დაუშვებს შეცდომას, იმის გაგება, თუ როგორ მუშაობს AI, პრობლემის ადვილად დიაგნოსტიკის საშუალებას იძლევა.

ახსნადი AI ასევე საშუალებას მისცემს ინფორმაციის გამჭვირვალედ გაზიარებას იმის შესახებ, თუ როგორ ხდება მონაცემების გამოყენება და რატომ მიიღო გადაწყვეტილება AI-ს მიერ. ახსნადი ხელოვნური ინტელექტის გარეშე შეუძლებელი იქნება ამ პოლიტიკის დაცვა ამის გამო ღრმა სწავლის შავი ყუთის პრობლემა.

საწარმოები, რომლებიც ორიენტირებულია ამ სისტემების გაუმჯობესებაზე, ასევე მიიღებენ დადებით სარგებელს იმ ნიუანსებისა და სირთულეების გაგებით, თუ რატომ მიიღო ღრმა სწავლის ალგორითმმა კონკრეტული გადაწყვეტილება.

„თქვენ უნდა იცოდეთ, რომ ავტომატიზირებული სისტემა გამოიყენება და გესმოდეთ, როგორ და რატომ უწყობს ხელს ის შედეგებს, რომლებიც გავლენას ახდენენ თქვენზე. ავტომატური სისტემების დიზაინერებმა, დეველოპერებმა და დეველოპერებმა უნდა წარმოადგინონ ზოგადად ხელმისაწვდომი დოკუმენტაცია, რომელიც მოიცავს სისტემის მთლიან ფუნქციონირებას და როლს, რომელსაც ასრულებს ავტომატიზაცია. მკაფიო, დროული და ხელმისაწვდომი შედეგების შესახებ. ასეთი შეტყობინება უნდა იყოს განახლებული და სისტემით ზემოქმედების ქვეშ მყოფ ადამიანებს უნდა ეცნობოთ მნიშვნელოვანი გამოყენების შემთხვევის ან ძირითადი ფუნქციონალური ცვლილებების შესახებ. თქვენ უნდა იცოდეთ, თუ როგორ და რატომ განისაზღვრა თქვენზე ზემოქმედების შედეგი ავტომატური სისტემის მიერ, მათ შორის, როდესაც ავტომატური სისტემა არ არის ერთადერთი შემავალი, რომელიც განსაზღვრავს შედეგს. ავტომატიზებულმა სისტემებმა უნდა უზრუნველყონ ტექნიკურად მართებული, მნიშვნელოვანი და გამოსადეგი ახსნა-განმარტებები თქვენთვის და ნებისმიერი ოპერატორისთვის ან სხვებისთვის, რომლებსაც ესაჭიროებათ სისტემის გაგება და დაკალიბრებული რისკის დონემდე კონტენტზე დაყრდნობით. ანგარიშგება, რომელიც მოიცავს შემაჯამებელ ინფორმაციას ამ ავტომატური სისტემების შესახებ მარტივ ენაზე და შეფასების სიცხადისა და ხარისხისა და ახსნა-განმარტებების შესახებ, უნდა იყოს საჯარო, შეძლებისდაგვარად.”

5. ადამიანის ალტერნატივები, განხილვა და უკან დაბრუნება

ზემოაღნიშნული პრინციპების უმეტესობისგან განსხვავებით, ეს პრინციპი ყველაზე მეტად გამოიყენება სამთავრობო ერთეულებზე, ან პრივატიზებულ ინსტიტუტებზე, რომლებიც მუშაობენ მთავრობის სახელით.

ხელოვნური ინტელექტის ეთიკის დაფის და ახსნადი ხელოვნური ინტელექტის პირობებშიც კი, მნიშვნელოვანია, გადახედოთ ადამიანთა მიმოხილვას, როდესაც საფრთხე ემუქრება სიცოცხლეს. ყოველთვის არის შეცდომის პოტენციალი და ადამიანური განხილვის შემთხვევაში, როდესაც მოთხოვნილია, შესაძლოა თავიდან აიცილოს ისეთი სცენარი, როგორიცაა AI აგზავნის არასწორ ადამიანებს ციხეში.

სასამართლო და სისხლის სამართლის სისტემას აქვს ყველაზე მეტი ადგილი, რათა გამოუსწორებელი ზიანი მიაყენოს საზოგადოების მარგინალიზებულ წევრებს და განსაკუთრებული ყურადღება უნდა მიაქციოს ამ პრინციპს.

„უნდა შეგეძლოთ უარი თქვათ, სადაც ეს მიზანშეწონილია, და გქონდეთ წვდომა იმ ადამიანთან, რომელსაც შეუძლია სწრაფად განიხილოს და მოაგვაროს ის პრობლემები, რომლებიც თქვენ წააწყდებით. თქვენ უნდა შეგეძლოთ უარი თქვათ ავტომატიზირებულ სისტემებზე ადამიანური ალტერნატივის სასარგებლოდ, საჭიროების შემთხვევაში. მიზანშეწონილობა უნდა განისაზღვროს გონივრული მოლოდინების საფუძველზე მოცემულ კონტექსტში და ფოკუსირებული იყოს ფართო ხელმისაწვდომობის უზრუნველყოფაზე და საზოგადოების დაცვაზე განსაკუთრებით მავნე ზემოქმედებისგან. ზოგიერთ შემთხვევაში, ადამიანის ან სხვა ალტერნატივა შეიძლება მოითხოვოს კანონით. თქვენ უნდა გქონდეთ წვდომა ადამიანთა დროულ განხილვაზე და გამოსასწორებლად სარეზერვო და ესკალაციის პრობლემის გამო, თუ რომელიმე ავტომატური სისტემა ვერ ხერხდება, ის წარმოშობს შეცდომას, ან გსურთ გაასაჩივროთ ან გაასაჩივროთ მისი გავლენა თქვენზე. ადამიანური განხილვა და უკან დაბრუნება უნდა იყოს ხელმისაწვდომი, სამართლიანი, ეფექტური, შენარჩუნებული, თან ახლდეს შესაბამისი ოპერატორის ტრენინგი და არ უნდა დააკისროს არაგონივრული ტვირთი საზოგადოებას. ავტომატური სისტემები, რომლებიც განკუთვნილია მგრძნობიარე დომენებში, მათ შორის, მაგრამ არ შემოიფარგლება, კრიმინალური სისტემის, დასაქმების, განათლებისა და ჯანდაცვაში, დამატებით უნდა იყოს მორგებული მიზნისთვის, უზრუნველყოს ზედამხედველობის მნიშვნელოვანი წვდომა, მოიცავდეს ტრენინგს ნებისმიერი ადამიანისთვის, ვინც სისტემასთან ურთიერთობს. , და ჩართეთ ადამიანური ყურადღება არასასურველი ან მაღალი რისკის გადაწყვეტილებებისთვის. ანგარიშგება, რომელიც მოიცავს ამ ადამიანური მმართველობის პროცესების აღწერას და მათი დროულობის, ხელმისაწვდომობის, შედეგებისა და ეფექტურობის შეფასებას, უნდა იყოს საჯარო შეძლებისდაგვარად.”

შემაჯამებელი

OSTP-ს უნდა მიენიჭოს დამსახურება იმისათვის, რომ დანერგოს ჩარჩო, რომელიც აკავშირებს საზოგადოებისთვის საჭირო უსაფრთხოების პროტოკოლებს, ასევე დრაკონული პოლიტიკის დანერგვის გარეშე, რამაც შეიძლება ხელი შეუშალოს პროგრესს მანქანური სწავლის განვითარებაში.

პრინციპების ჩამოყალიბების შემდეგ, კანონპროექტი გრძელდება განხილული საკითხების ტექნიკური თანამგზავრის მიწოდებით, ასევე დეტალური ინფორმაციის მიწოდებით თითოეული პრინციპისა და ამ პრინციპების განხორციელების საუკეთესო გზების შესახებ.

საზრიანი ბიზნესის მფლობელებმა და საწარმოებმა უნდა გაითვალისწინონ შეისწავლეთ ეს კანონპროექტი, რადგან ამ პოლიტიკის რაც შეიძლება მალე განხორციელება შეიძლება იყოს მხოლოდ მომგებიანი.

ახსნადი ხელოვნური ინტელექტი კვლავაც დომინირებს მნიშვნელობით, როგორც ჩანს კანონპროექტის ამ ციტატიდან.

”ფედერალურ მთავრობაში, სააგენტოები აწარმოებენ და მხარს უჭერენ კვლევებს ახსნადი AI სისტემების შესახებ. NIST აწარმოებს ფუნდამენტურ კვლევას AI სისტემების ახსნადობის შესახებ. მკვლევართა მულტიდისციპლინური გუნდი მიზნად ისახავს შეიმუშაოს გაზომვის მეთოდები და საუკეთესო პრაქტიკა ახსნადი ხელოვნური ინტელექტის ძირითადი პრინციპების განხორციელების მხარდასაჭერად. თავდაცვის მოწინავე კვლევითი პროექტების სააგენტოს აქვს პროგრამა ახსნადი ხელოვნური ინტელექტის შესახებ, რომელიც მიზნად ისახავს შექმნას მანქანათმცოდნეობის ტექნიკის კომპლექტი, რომელიც აწარმოებს უფრო ახსნად მოდელებს, სწავლის შესრულების მაღალ დონეზე შენარჩუნებისას (პროგნოზის სიზუსტე) და საშუალებას აძლევს ადამიანურ მომხმარებლებს გააცნობიერონ, სათანადოდ. ენდობა და ეფექტურად მართოს ხელოვნურად ინტელექტუალური პარტნიორების განვითარებადი თაობა. ეროვნული სამეცნიერო ფონდის პროგრამა ხელოვნური ინტელექტის სამართლიანობის შესახებ ასევე მოიცავს სპეციფიკურ ინტერესს ახსნადი ხელოვნური ინტელექტის კვლევის საფუძვლების მიმართ.

რაც არ უნდა გამოგვრჩეს, არის ის, რომ საბოლოოდ აქ ასახული პრინციპები გახდება ახალი სტანდარტი.

unite.AI-ს დამფუძნებელი პარტნიორი და წევრი Forbes-ის ტექნოლოგიური საბჭო, ანტუანი არის ა ფუტურისტი რომელიც გატაცებულია ხელოვნური ინტელექტისა და რობოტიკის მომავლის მიმართ.

ის ასევე არის დამფუძნებელი Securities.io, ვებსაიტი, რომელიც ფოკუსირებულია დამრღვევ ტექნოლოგიებში ინვესტირებაზე.