Штучний інтелект
OpenAI створює Раду з безпеки, тренує наступну генерацію моделей штучного інтелекту серед скандалів

OpenAI зробила значний крок у розвитку технологій штучного інтелекту, а її останнє досягнення – це система GPT-4o, яка живить популярного чат-бота ChatGPT. Сьогодні OpenAI оголосила про створення нової ради з безпеки, Ради з безпеки OpenAI, та повідомила, що розпочала тренування нової моделі штучного інтелекту.
Хто входить до Ради з безпеки OpenAI?
Нова Рада з безпеки OpenAI має на меті надавати рекомендації та нагляд за критичними рішеннями щодо безпеки та безпеки проектів і операцій компанії. Основна мета ради – забезпечити, щоб практика розвитку штучного інтелекту в OpenAI мала пріоритет безпеки та відповідала етичним принципам. Рада з безпеки складається з різноманітної групи осіб, включаючи виконавців OpenAI, членів ради, технічних та політичних експертів.
Видатні члени Ради з безпеки OpenAI включають:
- Сем Алтман, генеральний директор OpenAI
- Брет Тейлор, голова ради директорів OpenAI
- Адам Д’Анджело, генеральний директор Quora та член ради директорів OpenAI
- Ніколь Селігман, колишній юрисконсульт Sony та член ради директорів OpenAI
На початковому етапі нова рада з безпеки та безпеки буде зосереджена на оцінці та зміцненні існуючих процесів безпеки та заходів OpenAI. Рада з безпеки OpenAI встановила 90-денний термін для надання рекомендацій раді щодо того, як покращити практику розвитку штучного інтелекту та системи безпеки компанії. Як тільки рекомендації будуть прийняті, OpenAI планує опублікувати їх у спосіб, що відповідає вимогам безпеки та безпеки.
Тренування нової моделі штучного інтелекту
Паралельно з створенням Ради з безпеки OpenAI, OpenAI оголосила, що розпочала тренування своєї наступної моделі штучного інтелекту. Ця остання модель штучного інтелекту очікується перевершить можливості системи GPT-4, яка зараз використовується в чат-боті ChatGPT. Хоча деталі про нову модель штучного інтелекту залишаються рідкими, OpenAI заявила, що вона буде лідером у галузі як за можливостями, так і за безпекою.
Розробка цієї нової моделі штучного інтелекту підкреслює швидкий темп інновацій у сфері штучного інтелекту та потенціал для штучного загального інтелекту (AGI). Коли системи штучного інтелекту стають більш просунутими та потужними, важливо пріоритизувати безпеку та забезпечити, щоб ці технології розроблялися відповідально.
Недавні скандали та від’їзди OpenAI
Поновлений акцент OpenAI на безпекові питання відбувається на тлі внутрішніх потрясінь та публічної критики. За останні тижні компанія зіткнулася з критикою з боку власних працівників, коли дослідник Ян Лейке подав у відставку та висловив занепокоєння, що безпека зайняла другорядне місце у розвитку “блискучих продуктів”. Від’їзд Лейке був супроводжуваний від’їздом Іллі Суцькевича, співзасновника та головного наукового співробітника OpenAI.
Від’їзди Лейке та Суцькевича викликали питання щодо пріоритетів компанії та її підходу до безпеки штучного інтелекту. Два дослідники спільно очолювали команду “супераліну” OpenAI, яка займалася питаннями довгострокових ризиків штучного інтелекту. Після їхньої відставки команда супераліну була розформована, що ще більше підігріло занепокоєння щодо зобов’язань компанії щодо безпеки.
Крім внутрішніх потрясінь, OpenAI також зіткнулася з звинуваченнями у використанні голосової імперсонації в чат-боті ChatGPT. Деякі користувачі заявили, що голос чат-бота має вражаючу схожість з голосом актриси Скарлетт Йоганссон. Хоча OpenAI заперечила намірене копіювання Йоганссон, інцидент викликав ширшу дискусію про етичні наслідки змісту, створеного штучним інтелектом, та потенціал для його неправильного використання.
Широка дискусія про етику штучного інтелекту
Когда галузь штучного інтелекту продовжує розвиватися швидко, важливо, щоб компанії, такі як OpenAI, брали участь у постійному діалозі та співробітництві з дослідниками, політиками та громадськістю, щоб забезпечити, що технології штучного інтелекту розробляються відповідально та з надійними засобами безпеки. Рекомендації, висунуті Радою з безпеки OpenAI, та зобов’язання OpenAI щодо прозорості будуть сприяти ширшій дискусії про управління штучним інтелектом та допоможуть формувати майбутнє цієї трансформаційної технології, але тільки час покаже, що з цього вийде.












