кочан Социално въздействие на генериращия изкуствен интелект: ползи и заплахи - Unite.AI
Свържете се с нас

Изкуствен интелект

Социално въздействие на генериращия изкуствен интелект: ползи и заплахи

mm

Публикуван

 on

Представено изображение за генериращ AI

Днес, Генеративен AI притежава трансформираща сила в различни аспекти на обществото. Неговото влияние се простира от информационните технологии и здравеопазването до търговията на дребно и изкуствата, прониквайки в ежедневието ни. 

Според Emarketer, Generative AI показва ранно приемане с прогнозирани 100 милиона или повече потребители само в САЩ през първите четири години. Следователно е жизненоважно да се оцени социалното въздействие на тази технология.   

Въпреки че обещава повишена ефективност, производителност и икономически ползи, има и опасения относно етичната употреба на захранвани с изкуствен интелект генеративни системи. 

Тази статия разглежда как Generative AI предефинира нормите, предизвиква етичните и обществените граници и оценява необходимостта от регулаторна рамка за управление на социалното въздействие. 

Как Generative AI ни влияе

Генеративният AI значително повлия на живота ни, трансформирайки начина, по който работим и взаимодействаме с цифровия свят. 

Нека проучим някои от неговите положителни и отрицателни социални въздействия. 

The Good

Само за няколко години от въвеждането си, Generative AI трансформира бизнес операциите и отвори нови пътища за творчество, обещавайки повишаване на ефективността и подобрена пазарна динамика. 

Нека обсъдим положителното му социално въздействие:

1. Бързи бизнес процедури

През следващите няколко години Generative AI може да намали SG&A (продажби, общи и административни) разходи с 40%.

Генеративният AI ускорява управление на бизнес процесите чрез автоматизиране на сложни задачи, насърчаване на иновациите и намаляване на ръчното натоварване. Например при анализа на данни, модели като този на Google BigQuery ML ускоряване на процеса на извличане на информация от големи набори от данни. 

В резултат на това фирмите се радват на по-добър пазарен анализ и по-бързо излизане на пазара.

2. Да направим творческото съдържание по-достъпно

Повече от 50% от търговците кредит на Generative AI за подобрена производителност при ангажиране, реализации и по-бързи творчески цикли. 

В допълнение, Generative AI инструментите са автоматизирани създаване на съдържание, правейки елементи като изображения, аудио, видео и т.н., само с едно кликване. Например инструменти като Canva намлява По средата на пътуването използвайте Generative AI, за да помогнете на потребителите да създават без усилие визуално привлекателни графики и мощни изображения. 

Освен това инструменти като ChatGPT помогнете за мозъчна атака на идеи за съдържание въз основа на потребителски указания относно целевата аудитория. Това подобрява потребителското изживяване и разширява обхвата на творческо съдържание, свързвайки артисти и предприемачи директно с глобална публика.

3. Знание на една ръка разстояние

НютонПроучването на ’s разкрива, че студенти, използващи базирани на AI програми за адаптивно обучение, демонстрират забележително подобрение от 62% в резултатите от тестовете.

Generative AI внася знания в нашия незабавен достъп с големи езикови модели (LLM) като ChatGPT или Bard.ai. Те отговарят на въпроси, генерират съдържание и превеждат езици, което прави извличането на информация ефективно и персонализирано. Освен това, той дава възможност на образованието, предлагайки персонализирани уроци и персонализирани учебни преживявания, за да обогати образователното пътуване с непрекъснато самообучение. 

Например, Ханприятел, базиран на изкуствен интелект инструмент от Khan Academy, действа като треньор по писане за учене да кодира и предлага подкани за насочване на учениците при учене, дебат и сътрудничество.

The Bad

Въпреки положителните въздействия, има и предизвикателства с широкото използване на Generative AI. 

Нека проучим отрицателното му социално въздействие: 

1. Липса на контрол на качеството

Хората могат да възприемат резултата от Generative AI модели като обективна истина, пренебрегвайки потенциала за неточности, като напр. халюцинации. Това може да подкопае доверието в източниците на информация и да допринесе за разпространението на дезинформация, оказвайки влияние върху обществените възприятия и вземането на решения.

Неточните резултати от AI пораждат опасения относно автентичността и точността на генерираното от AI съдържание. Докато съществуващите регулаторни рамки се фокусират основно върху поверителността и сигурността на данните, е трудно да се обучат модели да се справят с всеки възможен сценарий. 

Тази сложност прави регулирането на изхода на всеки модел предизвикателство, особено когато потребителските подкани могат по невнимание да генерират вредно съдържание. 

2. Предубеден AI

Генеративният AI е толкова добър, колкото и данните, върху които е обучен. Пристрастията могат да се промъкнат на всеки етап, от събирането на данни до внедряването на модела, представяйки неточно многообразието на общото население. 

Например, преглед над 5,000 изображения от Stable Diffusion разкрива, че засилва расовите и половите неравенства. В този анализ Stable Diffusion, модел от текст към изображение, изобразява бели мъже като изпълнителни директори и жени в подчинени роли. Обезпокоително е, че той стереотипизира тъмнокожи мъже с престъпност и тъмнокожи жени с черна работа. 

Справянето с тези предизвикателства изисква признаване на пристрастията на данните и прилагане на стабилни регулаторни рамки през целия жизнен цикъл на ИИ, за да се гарантира справедливост и отчетност в системите за генериране на ИИ.

3. Разпространена фалшивост

Deepfakes и дезинформацията, създадена с Generative AI модели, може да повлияе на масите и да манипулира общественото мнение. Освен това Deepfakes може да подбужда въоръжени конфликти, представлявайки отличителна заплаха както за външната, така и за вътрешната национална сигурност.

Неконтролираното разпространение на фалшиво съдържание в интернет се отразява негативно на милиони и подклажда политически, религиозни и социални разногласия. Например през 2019 г. предполагаем deepfake играе роля в опита за държавен преврат в Габон.

Това предизвиква спешни въпроси относно етичните последици от информацията, генерирана от AI.

4. Липса на рамка за определяне на собствеността

Понастоящем няма изчерпателна рамка за определяне на собствеността върху съдържание, генерирано от AI. Въпросът кой притежава данните, генерирани и обработвани от AI системи, остава неразрешен. 

Например в съдебно дело, образувано в края на 2022 г., известно като Andersen v. Stability AI et al., трима художници обединиха сили, за да заведат колективен иск срещу различни Generative AI платформи. 

В делото се твърди, че тези AI системи са използвали оригиналните произведения на художниците, без да са получили необходимите лицензи. Художниците твърдят, че тези платформи са използвали своите уникални стилове, за да обучат AI, позволявайки на потребителите да генерират произведения, които може да нямат достатъчна трансформация от техните съществуващи защитени творения.

Освен това, Генеративен AI дава възможност за широко разпространено генериране на съдържание и стойността, генерирана от човешки професионалисти в творческите индустрии, става съмнителна. Той също така оспорва определението и защитата на правата върху интелектуалната собственост.

Регулиране на социалното въздействие на Generative AI

Генеративният ИИ няма цялостна регулаторна рамка, което поражда опасения относно потенциала му за конструктивни и пагубни въздействия върху обществото. 

Влиятелни заинтересовани страни се застъпват за установяване на стабилни регулаторни рамки.

Например, Европейския съюз предложи първата по рода си регулаторна рамка за изкуствен интелект, за да вдъхне доверие, която се очаква да бъде приета през 2024 г. С подход, ориентиран към бъдещето, тази рамка има правила, свързани с приложения с изкуствен интелект, които могат да се адаптират към технологичните промени. 

Той също така предлага установяване на задължения за потребителите и доставчиците, предлага оценки на съответствието преди пускане на пазара и предлага прилагане след пускане на пазара при определена структура на управление.

Освен това, Институт Ада Лавлейс, защитник на регулирането на ИИ, докладва за значението на добре проектираното регулиране за предотвратяване на концентрацията на власт, осигуряване на достъп, предоставяне на механизми за обезщетение и максимизиране на ползите.

Прилагането на регулаторни рамки би представлявало значителна крачка в справянето със свързаните рискове от Генеративен AI. С дълбоко влияние върху обществото, тази технология се нуждае от надзор, внимателно регулиране и непрекъснат диалог между заинтересованите страни.  

За да сте информирани за най-новите постижения в ИИ, неговото социално въздействие и регулаторни рамки, посетете Unite.ai.