Ethiek
Credo AI kondigt 's werelds eerste verantwoordelijke AI-platform aan
Credo AI heeft de beschikbaarheid aangekondigd van zijn Responsible AI-platform, het eerste in zijn soort. Het SaaS-product helpt organisaties tools te gebruiken om hun benadering van verantwoorde AI te standaardiseren en op te schalen.
Credo AI is verantwoordelijk voor het creëren van 's werelds eerste uitgebreide en contextuele beheeroplossing voor AI.
Verantwoord AI-platform
Volgens het persbericht van het bedrijf, "helpt het Responsible AI-platform van Credo AI bedrijven om Responsible AI te operationaliseren door contextgestuurde AI-risico- en compliancebeoordelingen te bieden, waar ze zich ook bevinden in hun AI-reis."
Dit is cruciaal gezien het feit dat veel AI-bedrijven moeite hebben met het bedenken en implementeren van de noodzakelijke AI-principes in de praktijk.
Met Credo AI kunnen cross-functionele teams samenwerken aan verantwoordelijke AI-vereisten voor zaken als eerlijkheid, prestaties, privacy en veiligheid. Het platform stelt teams ook in staat hun AI-gebruiksscenario’s te evalueren om er zeker van te zijn dat ze aan de vereisten voldoen door middel van technische beoordelingen van datasets en machine learning (ML)-modellen. Ook kunnen ze dieper ingaan op de ontwikkelingsprocessen.
Het platform vertrouwt op het open source beoordelingskader van Credo AI om meer gestructureerde en interpreteerbare beoordelingen voor alle soorten organisaties te realiseren.
Navrina Singh is oprichter en CEO van Credo AI.
"Credo AI wil een sherpa zijn voor ondernemingen in hun Responsible AI-initiatieven om toezicht en verantwoording te brengen op kunstmatige intelligentie en te definiëren hoe goed eruit ziet voor hun AI-framework", zei Singh. “We hebben gepionierd met een contextgerichte, uitgebreide en continue oplossing om verantwoorde AI te leveren. Ondernemingen moeten zich afstemmen op de Verantwoorde AI-vereisten van diverse belanghebbenden in technologie- en toezichtfuncties, en weloverwogen stappen ondernemen om actie voor die doelen aan te tonen en verantwoordelijkheid te nemen voor de resultaten.”
Platform Kenmerken
Enkele kenmerken van het Responsible AI-platform van Credo AI zijn:
Naadloze beoordelingsintegraties
Afstemming met meerdere belanghebbenden
Draaitafel op risico gebaseerd toezicht
Out-of-the-Box regelgevende gereedheid
Zekerheid en attest
Risicobeheer van AI-leveranciers
Met functies zoals AI Vendor Risk Management kunnen organisaties Credo AI gebruiken om het AI-risico en de naleving van AI/ML-producten en -modellen van derden te beoordelen. Andere functies, zoals afstembaar risicogebaseerd toezicht, stellen teams in staat om het niveau van human-in-the-loop-governance te verfijnen op basis van het use case-risiconiveau.
Deze nieuwe ontwikkelingen komen doordat regeringen AI-regelgeving blijven verhogen. Er zijn bijvoorbeeld aanstaande regelgevingen zoals de Artificial Intelligence Act (AIA) van de Europese Unie, evenals een wetsvoorstel in New York City dat het verplicht stelt om AI-tools voor het nemen van beslissingen over werkgelegenheid te controleren op vooringenomenheid. Dit zijn slechts enkele van de vele redenen waarom organisaties ervoor kiezen om te vertrouwen op AI-beheertools, zoals het nieuwe platform dat door Credo AI is uitgebracht.