stomp Credo AI kondigt 's werelds eerste verantwoordelijke AI-platform aan - Unite.AI
Verbind je met ons

Ethiek

Credo AI kondigt 's werelds eerste verantwoordelijke AI-platform aan

gepubliceerd

 on

Credo AI heeft de beschikbaarheid aangekondigd van zijn Responsible AI-platform, het eerste in zijn soort. Het SaaS-product helpt organisaties tools te gebruiken om hun benadering van verantwoorde AI te standaardiseren en op te schalen.

Credo AI is verantwoordelijk voor het creëren van 's werelds eerste uitgebreide en contextuele beheeroplossing voor AI.

Verantwoord AI-platform

Volgens het persbericht van het bedrijf, "helpt het Responsible AI-platform van Credo AI bedrijven om Responsible AI te operationaliseren door contextgestuurde AI-risico- en compliancebeoordelingen te bieden, waar ze zich ook bevinden in hun AI-reis."

Dit is cruciaal gezien het feit dat veel AI-bedrijven moeite hebben met het bedenken en implementeren van de noodzakelijke AI-principes in de praktijk.

Met Credo AI kunnen cross-functionele teams samenwerken aan verantwoordelijke AI-vereisten voor zaken als eerlijkheid, prestaties, privacy en veiligheid. Het platform stelt teams ook in staat hun AI-gebruiksscenario’s te evalueren om er zeker van te zijn dat ze aan de vereisten voldoen door middel van technische beoordelingen van datasets en machine learning (ML)-modellen. Ook kunnen ze dieper ingaan op de ontwikkelingsprocessen.

Het platform vertrouwt op het open source beoordelingskader van Credo AI om meer gestructureerde en interpreteerbare beoordelingen voor alle soorten organisaties te realiseren.

Navrina Singh is oprichter en CEO van Credo AI.

"Credo AI wil een sherpa zijn voor ondernemingen in hun Responsible AI-initiatieven om toezicht en verantwoording te brengen op kunstmatige intelligentie en te definiëren hoe goed eruit ziet voor hun AI-framework", zei Singh. “We hebben gepionierd met een contextgerichte, uitgebreide en continue oplossing om verantwoorde AI te leveren. Ondernemingen moeten zich afstemmen op de Verantwoorde AI-vereisten van diverse belanghebbenden in technologie- en toezichtfuncties, en weloverwogen stappen ondernemen om actie voor die doelen aan te tonen en verantwoordelijkheid te nemen voor de resultaten.”

Platform Kenmerken

Enkele kenmerken van het Responsible AI-platform van Credo AI zijn:

  • Naadloze beoordelingsintegraties

  • Afstemming met meerdere belanghebbenden

  • Draaitafel op risico gebaseerd toezicht

  • Out-of-the-Box regelgevende gereedheid

  • Zekerheid en attest

  • Risicobeheer van AI-leveranciers

Met functies zoals AI Vendor Risk Management kunnen organisaties Credo AI gebruiken om het AI-risico en de naleving van AI/ML-producten en -modellen van derden te beoordelen. Andere functies, zoals afstembaar risicogebaseerd toezicht, stellen teams in staat om het niveau van human-in-the-loop-governance te verfijnen op basis van het use case-risiconiveau.

Deze nieuwe ontwikkelingen komen doordat regeringen AI-regelgeving blijven verhogen. Er zijn bijvoorbeeld aanstaande regelgevingen zoals de Artificial Intelligence Act (AIA) van de Europese Unie, evenals een wetsvoorstel in New York City dat het verplicht stelt om AI-tools voor het nemen van beslissingen over werkgelegenheid te controleren op vooringenomenheid. Dit zijn slechts enkele van de vele redenen waarom organisaties ervoor kiezen om te vertrouwen op AI-beheertools, zoals het nieuwe platform dat door Credo AI is uitgebracht.

Alex McFarland is een AI-journalist en -schrijver die de nieuwste ontwikkelingen op het gebied van kunstmatige intelligentie onderzoekt. Hij heeft samengewerkt met tal van AI-startups en publicaties over de hele wereld.