Connect with us

Düşünce Liderleri

AI-İlk Anlamı Güvenlik-İlk Anlamına Gelir

mm

Bir çocuğa marka yeni bir bisiklet alın ve bisiklet tüm dikkati çekecek – ona eşlik eden parlak kask değil. Ancak ebeveynler kaskı takdir ediyor.

Korkarım manyetik günümüzde AI ile ilgili olarak çocuklar gibi davranıyoruz. AI’in ne kadar cool olduğu ve onunla ne kadar hızlı gidebileceğimiz konusunda odaklanıyoruz. AI’i kullanırken güvenli kalabilmek için neler yapabileceğimiz konusunda değil. Bu bir kıyamet çünkü birini diğerinin faydasını olmadan sahip olamazsınız.

Basitçe söyleyeyim, AI’i dikkatli bir şekilde güvenlik için planlamadan uygulamak sadece riskli değil. Bu, bir uçurumdan aşağı doğru düz bir yoldur.

AI Güvenliği Neden Anlamına Gelir?

AI güvenliği bir dizi adımdan oluşur. Ancak belki de en önemli unsur ne zaman bunları yapmaktır. Etkili olmak için AI Güvenliği tasarım tarafından olmalıdır.

Bu, bir test sürüşüne çıkmadan önce nasıl zarar vermeyeceğimizi düşünmek anlamına gelir. AI’in değerlerimiz ve sosyal beklentilerimize uygun olarak çalıştığını ve sonuçlar ürettiğini ilk olarak garantilemek için nasıl yapacağımızı figürleriz – sonra bazı korkunç sonuçlar almadan önce değil.

AI güvenliği için tasarım ayrıca, AI’in kötü durumlar altında bile öngörülebilir bir şekilde çalışabilmesi için nasıl güçlü hale getirileceğini düşünmeyi içerir. AI’i şeffaf hale getirmek, AI’nin aldığı kararların anlaşılabilir, denetlenebilir ve önyargılı olmadığını anlamına gelir.

Ayrıca, AI’in çalışacağı dünyaya bir göz atmaktır. Hangi kurumsal ve yasal güvencelere ihtiyacımız var, özellikle de geçerli hükümet düzenlemelerine uymak için? Ve insanların AI ile etkileşim kurduğu insanların üzerindeki etkiyi düşünmek için insan bileşenini vurgulayamam.

Tasarım tarafından güvenlik, AI güvenliğini tüm süreçlerimize, iş akışlarımıza ve operasyonlarımıza AI’nin ilk komutunu yazmadan önce yerleştirmek anlamına gelir.

Riskler Endişeleri Aşıyor

Herkes aynı fikirde değil. “Güvenlik-ilk” duyduklarında, bazıları “o kadar dikkatli ve yavaş adımlar atın ki, geride kalırsınız” diyor. Tabii ki, bu “güvenlik-ilk” anlamına gelmez. Bu, inovasyonu boğmak veya zamanında pazara sürmeyi yavaşlatmak zorunda değildir. Ve bu, asla ölçeklenmeyen bir dizi pilot anlamına gelmez. Tam tersi.

AI’ye güvenlik tasarımı olmadan entegre etmenin risklerini anlamak anlamına gelir. Sadece birkaçını düşünün.

  • Deloitte’nin Finansal Hizmetler Merkezi GenAI’nin 2027 yılına kadar yalnızca ABD’de 2023’teki 12,3 milyar ABD Doları’ndan 40 milyar ABD Doları’na kadar dolandırıcılık kaybına neden olabileceğini öngörüyor, bu da %32’lik bir CAGR’dir.
  • Önyargılı kararlar. Vakalar önyargılı tıbbi bakım önyargılı verilerle eğitilen AI nedeniyle belgelemektedir.
  • Kötü kararlar daha da kötü kararlar doğurur. AI’nin neden olduğu ilk kötü karardan daha kötü olan, çalışmalar bu hatalı kararların gelecekteki kararlarımızın bir parçası haline gelebileceğini gösteriyor.
  • Gerçek sonuçlar. Kötü tıbbi tavsiyeler veren AI, ölümcül hasta sonuçlarına neden oldu. AI’nin hayal gücünün yasal bir先例 olarak alıntılanması, yasal sorunlara neden oldu. Ve yazılım hataları, AI asistanının yanlış bilgi vermesi nedeniyle şirket ürünlerinin ve itibarının lekelenmesine ve yaygın kullanıcı memnuniyetsizliğine yol açtı.

Ve şeyler daha da ilginç hale geliyor.

Ajans AI’nin ortaya çıkışı ve hızlı benimsenmesi, AI’nin bağımsız olarak kararlar alabileceği ve eylemler gerçekleştirebileceği AI, AI güvenliği tasarımı için önemini artıracaktır.

Sizin adınıza hareket edebilen bir AI ajanı son derece faydalı olabilir. Size en iyi uçuşları söylemek yerine, onları bulabilir ve sizin için rezerve edebilir. Bir ürünü iade etmek istiyorsanız, bir şirketin AI ajanı, yalnızca iade politikasını ve nasıl iade yapacağınızı söylemekle kalmaz, aynı zamanda tüm işlemi sizin için halledebilir.

Harika – eğer ajan bir uçuşu hayal etmez veya finansal bilgilerinizi yanlış elelemez. Veya şirketin iade politikasını yanlış anlar ve geçerli iadeleri reddeder.

Şimdiki AI güvenlik risklerinin kolayca bir dizi AI ajanının kararlar alması ve eylemde bulunmasıyla birlikte artabileceğini görmek çok zor değil, özellikle de bunlar muhtemelen yalnız hareket etmeyecekler. Ajans AI’nin gerçek değeri, bireysel ajanların görevlerin parçalarını ele alması ve işleri yapmak için ajan-ağente işbirliği yapmasıyla gelecek.

Peki, nasıl AI güvenlik tasarımı uygulayarak inovasyonu engellemeyecek ve potansiyel değerini öldürmeyeceksiniz?

Tasarım tarafından Güvenlik Uygulamada

Ad hoc güvenlik kontrolleri cevap değil. Ancak güvenlik uygulamalarını AI uygulamasının her aşamasına entegre etmek.

Verilerle başlayın. Verilerin etiketlendiğinden, gerektiğinde açıklamalı, önyargısız ve yüksek kaliteli olduğundan emin olun. Bu, özellikle eğitim verisi için geçerlidir.

Modellerinizi insan geri bildirimiyle eğitin, çünkü insan yargısı model davranışını şekillendirmede çok önemlidir. İnsan Geri Bildirimiyle Peşinden Öğrenme (RLHF) ve benzeri teknikler, annotatörlerin yanıtları değerlendirmesine ve rehberlik etmesine olanak tanır, böylece LLM’ler güvenli ve insan değerleriyle uyumlu çıktılar oluşturur.

Sonra, bir modeli yayınlamadan önce, stres testi yapın. AI’nin güvensiz davranışını provoke etmeye çalışan kırmızı takımlar, karşıt örnekler ve girişimlerin denenmesi, zayıflıkları ortaya çıkarabilir. Bunları halka ulaşmadan önce düzeltmek, sorun çıkmeden önce güvenliği sağlar.

Bu test, AI modellerinizin güçlü olduğunu garantilerken, ortaya çıkan tehditlere ve modellere gerekli ayarlamalara dikkat ederek onları izlemeye devam edin.

Benzer şekilde, içerik kaynaklarını ve dijital etkileşimleri dolandırıcılık belirtileri için düzenli olarak izleyin. Kritik olarak, AI-otomasyonun büyük veri hacmini izlemek için ve yetenekli insanların gözden geçirme ve doğruluk için kullanımını sağlayan melez bir AI-insan yaklaşımını kullanın.

Ajans AI uygulamak daha da fazla özen gerektirir. Temel bir gereksinim: Ajana sınırlarını bilmesini öğretin. Belirsizlik, etik ikilemler, yeni durumlar veya özellikle yüksek riskli kararlar ile karşılaştığında, yardım istemeyi bilmesini sağlayın.

Ajanlarınıza izlenebilirlik tasarlayın. Bu özellikle önemli, böylece etkileşimleri yalnızca doğrulanmış kullanıcılarla gerçekleşir ve sahtekar aktörlerin ajanın eylemlerini etkilemesini önler.

Eğer etkili çalışıyorlarsa, onları serbest bırakmak ve işlerini yapmak için bırakmak cazip gelebilir. Deneyimlerimiz, onları ve yerine getirdikleri görevleri hatalar veya beklenmedik davranışlar için izlemeye devam etmenizi söyler. Hem otomatik kontrolleri hem de insan gözden geçirmesini kullanın.

Aslında, AI güvenliğinin temel bir unsuru, düzenli insan katılımıdır. İnsanların kritik yargı, empati veya nuans ve belirsizlik kararlar veya eylemler içerdiğinde kasıtlı olarak dahil edilmesi gerekir.

Tekrarlamak gerekirse, bunlar AI uygulamasına önceden entegre edilen uygulamalardır, tasarım tarafından. Bunların, bir şey yanlış gittiğinde ve hasarı en aza indirmek için aceleyle neler yapılması gerektiğine ilişkin sonuçları değildir.

Çalışıyor mu?

GenAI’nin ortaya çıkışı ve şimdi ajans AI’ye hızlı bir şekilde ilerlerken, AI Güvenlik İlkelerini ve “tasarım tarafından” çerçevesini müşterilerimizle uyguluyoruz. AI Güvenlik İlkelerini uygulamanın, endişe edilenin aksine, yavaşlatmak yerine aslında onları hızlandırdığını buluyoruz.

Ajans AI, müşteri desteğinin maliyetini %25-50 oranında azaltma potansiyeline sahiptir, örneğin, müşteri memnuniyetini artırırken. Ancak bu, güvene bağlıdır.

İnsanların AI’i kullanmaları gerekir ve AI ile çalışan insan ajanları veya gerçek AI ajanlarıyla etkileşime giren müşterilerin, güvenlerini zedeleyecek tek bir etkileşim yaşamaması gerekir. Bir kötü deneyim, bir markaya olan güveni yok edebilir.

Güvenli olmayan şeylere güvenmeyiz. AI’yi uygulamaya başlamadan önce her katmana güvenlik entegre ettiğimizde, güvenle bunu yapabiliriz. Ve bunları ölçeklendirerek hızlı bir şekilde yapabiliyoruz – güvenle.

AI Güvenlik İlkelerini uygulamaya koymak fazla görünse de, yalnız değilsiniz. size yardımcı olmak için birçok uzman ve paylaşılan bilgiler vardır, böylece AI’nin değerini güvenli bir şekilde ve yavaşlatmadan elde edebilirsiniz.

AI şimdiye kadar heyecan verici bir yolculuk oldu ve yolculuk hızlandıkça, kaskımı taktığım için mutluyum.

Joe Anderson, TaskUs'da Danışmanlık ve Dijital Dönüşüm Senior Direktörüdür, burada pazara girme stratejisi ve inovasyonu yönetmektedir. AI, müşteri deneyimi ve dijital operasyonların kesişimine odaklanmaktadır ve TaskUs'un yeni ajans AI danışmanlık uygulamasının başına geçmiştir.