Myslitelé
Pokud může bot flirtovat s dětmi, co dalšího je dovoleno dělat s vašimi daty?

Když únik vnitřních směrnic odhalil, že Meta umožňuje svým AI chatbotům flirtovat s dětmi, většina lidí to považovala za skandál a přešla k něčemu jinému. Ale stojí za to se blíže podívat na to, co vyšetřování říká o současném stavu etiky AI: Pokud společnost jako Meta schvaluje takové politiky ve své velikosti, co jiného tito poskytovatelé platformů potichu dovolují? A kolik z toho se týká vašich dat?
Vedoucí podnikatelé tendují k hodnocení AI nástrojů podle toho, co mohou udělat, jak rychle a za jakou cenu. Ale existují tvrdší otázky, které stojí za to položit, zejména když se AI nástroje rychle stávají standardem: Jaké podmínky souhlasíte, když vaše týmy začnou používat AI nástroje? Co dělají poskytovatelé modelů a stavitelé agentů s vašimi daty? A když něco půjde špatně, kdo přebírá odpovědnost?
Většina organizací je tak zabrána do zjišťování, jak získat z této nové technologie co nejvíce peněz, že dosud nezvažovaly nejdůležitější otázku:
Co se vlastně děje s vašimi daty?
Většina lidí buď silně přecenila riziko sdílení něčeho s chatbotem nebo celou záležitost úplně odmítla. Skutečnost je, že velké jazykové modely jsou, v jistém smyslu, zmrazeny, jakmile jsou vyškoleny a uvolněny pro veřejnost. To znamená, že vaše konverzace jsou uloženy samostatně, ne okamžitě propojeny zpět do systémové paměti; co jste řekl ChatGPT ráno, není okamžitě ovlivňováno tím, co by model řekl někomu jinému odpoledne.
To ale neznamená, že vaše data nejsou používána. Používají se. Cesta je prostě složitější.
Konverzační protokoly jsou uloženy samostatně a mnoho AI laboratoří výslovně vyhrazuje právo je použít k výcviku další verze svého modelu. Je to přímo v podmínkách služby. Co vstupuje jako dotaz na zákaznickou podporu nebo strategické brainstorming dnes, může, s časem, ovlivnit model, který zítra použijí miliony.
Riziko pro proprietární data jde za hranice politiky. V roce 2025 Scale AI nehodou odhalilo tisíce stránek důvěrných projektových materiálů od klientů, včetně Meta, Google a xAI. Zvlášť, listopadový únik dodavatele OpenAI vedl k tomu, že hackeři získali zákaznická data, včetně jmen, e-mailů a systémových podrobností.
Abychom byli jasně, tato situace není pětihvězdičkovým ohrožením, ale není ani zcela bez rizika. Systémy pro podniky přicházejí s kontraktními zábranami proti opakovanému použití dat. Spotřebitelské nástroje většinou ne. Pokud jsou vaše data tak citlivá, že byste je chtěli chránit dohodou o mlčenlivosti, neměli byste je předávat spotřebitelskému chatbotovi a předpokládat, že nebudou použita jinde.
Čísla naznačují, že většina organizací to dosud neabsorbovala. Téměř osm z deseti zaměstnanců vložilo firemní informace do AI nástrojů a z nich více než čtyři z pěti to udělali pomocí svých osobních účtů, podle průzkumu pracovní síly z roku 2025. Jedna z pěti organizací již hlásila únik spojený se stínovým používáním AI a pouze 37 procent má zavedeny politiky pro detekci nebo správu, podle zprávy IBM o nákladech na únik dat z roku 2025.
Jakmile je toto riziko dat pochopeno, není těžké se mu vyhnout. Rozlišujte mezi spotřebitelskými a podnikovými nástroji, znáte, co podepisujete, a budete mít pokrytá většina vašich záležitostí.
Kde selhává komunikace zprostředkovaná AI pro podniky
Co se děje s vašimi daty, je jedna část obrazu. Druhá, a pro mnoho podniků důležitější, je to, co tyto systémy dělají s kvalitou a odpovědností vaší nejimportovanější komunikace.
Zamyslete se nad konverzacemi, které pohání podnikání: schůzky pro udržení dlouholetých klientů; prodejní jednání, kde tón a důvěra jsou téměř důležitější než jazyk dohody; nebo čtvrtletní prezentace představenstva o vašem pokroku směrem k ročním milníkům. Ukázalo se, že AI může zvládnout transakční prvky těchto interakcí poměrně dobře, jako je vedení záznamů ze schůzek, přiřazování priorit a zdůrazňování akčních bodů. Ale má potíže s vším ostatním.
Konkrétní režimy selhání stojí za to jmenovat. AI komprimuje kontext; shrnuje, vyhlazuje a standardizuje způsoby, které mohou odstranit nuance. Navíc, obsahy generované velkými jazykovými modely jsou těžko ověřitelné. Lidé, kterým jste poslali AI vygenerovaný e-mail nebo zkrácené poznámky ze schůzky, nemají žádný způsob, jak potvrdit, zda to, co obdrželi, odráží to, co jste mysleli, nebo zda zpráva nebyla filtrována nebo přefiltrovaná AI.
To ale neznamená, že AI nemá místo v podnikové komunikaci. Zřetelně ano. Ale existuje kategorie konverzací, kde zisky z efektivnosti neodůvodňují expozici, a většina organizací o nich dosud dostatečně neuvažovala.
Víte, kdy to udělat sami
Takže otázka se stává: Měla by AI být zapojena do vaší nejcitlivější komunikace?
Moje upřímná odpověď je ne, alespoň ne bez osoby, která může být zodpovědná za to, co bylo řečeno, jak to bylo řečeno, a zda zpráva byla doručena. Ověřování lidské komunikace není preferencí pro starý způsob dělání věcí; je to prostě uznání, že některé konverzace vyžadují osobu, která stojí za nimi.
Vedoucí by měli udělat svou domácí úlohu. Co říká dodavatelova datová politika o opakovaném použití? Co se stane s konverzačními protokoly vašeho týmu, když kontrakt skončí? Tyto nejsou otázky pro váš IT tým, aby je vyřešil na pozadí. Jsou to otázky pro nákup, a měly by být řešeny dříve v procesu.
Bot, který byl povolen flirtovat s dětmi, neudělal toto rozhodnutí sám. Někdo to schválil. Každý AI systém odráží úsudek lidí, kteří jej vytvořili a nasadili, a tyto volby nejsou vždy zjevné zvenčí.
Dokud nástroje pro audit AI nástrojů a systémů nedojdou svého přijetí, nejvíce obhajitelnou pozicí, kterou mohou vedoucí podnikatelé zaujmout, je nakreslit hranici mezi konverzacemi, se kterými jsou ochotni projít AI, a kterými ne.
Efektivní argument pro AI je přesvědčivý. Také je přesvědčivý argument pro vlastnictví toho, co jde ven pod vaším jménem.












