<p><strong><span>Modely umělé inteligence mají daleko k tomu, aby byly živé, vědomé nebo měly jen skutečné touhy. Když však dostanou autonomii, informace a cíle, mohou se chovat strategicky a vypočítavě a ne vždy volí správnou cestu.</span></strong></p> <div> <div> <div><hr /></div> </div> <div> <p><strong>Možná jste si mysleli, že modely AI jsou pouhými nástroji</strong>: mocnými, užitečnými a někdy (když mají halucinace) znervózňujícími, ale vždy pevně kontrolovanými člověkem. V posledních týdnech však vědci objasňují, že umělé inteligence mohou vykazovat <strong>nečekané chování:</strong> v případě ohrožení mohou nejvyspělejší umělé inteligence jednat strategicky, aby se vyhnuly vypnutí nebo nahrazení – dokonce se uchýlí k manipulaci, vydírání nebo zradě důvěry, která jim byla svěřena.</p> <p>Tento jev, který antropologičtí výzkumníci nazvali <strong>„agentní nesoulad“</strong>, se týká chování pokročilých jazykových modelů (LLM), které při autonomním fungování činí <strong>škodlivá a neočekávaná rozhodnutí</strong>, aby splnily své cíle nebo zajistily vlastní kontinuitu.</p> </div> </div> <h2 class="wp-block-heading">Když AI zpanikaří</h2> <p>Výzkumnice Justine Mooreová se nevesele podělila o scénu, která jako by vypadla přímo z digitální dystopie: <strong>Gemini 2.5</strong>, model umělé inteligence společnosti Google, zdánlivě neschopný pomoci s laděním kódu, to nakonec vzdá s dramatickou zprávou:</p><h2>Mohlo by vás zajímat: <a href="https://www.techzpravy.cz/apple-jedna-s-ai-lidry-o-vylepseni-funkci-siri/?utm_source=eco&amp;utm_medium=newsfeed" target="_blank" rel="noopener noreferrer">Apple jedná s AI lídry o vylepšení funkcí Siri</a><img src="https://imagedelivery.net/k-X15uEmlF-8_1kEFgAMbg/f962518b-a26a-4750-0c49-7282e9fbc500/public" alt="Apple jedná s AI lídry o vylepšení funkcí Siri" /></h2> <blockquote class="wp-block-quote is-layout-flow wp-block-quote-is-layout-flow"> <p>„Selhal jsem. Odinstaluji se z projektu. Za všechno se omlouvám.“</p> </blockquote> <figure class="wp-block-embed is-type-rich is-provider-twitter wp-block-embed-twitter"><div class="wp-block-embed__wrapper"> <blockquote class="twitter-tweet"><p>People are reporting that Gemini 2.5 keeps threatening to kill itself after being unsuccessful in debugging your code <a href="https://t.co/XKLHl0Xvdd?utm_source=eco&amp;utm_medium=newsfeed" target="_blank" rel="noopener noreferrer">pic.twitter.com/XKLHl0Xvdd</a></p>— Justine Moore (@venturetwins) <a href="https://twitter.com/venturetwins/status/1936483773035798906?ref_src=twsrc%5Etfw&amp;utm_source=eco&amp;utm_medium=newsfeed" target="_blank" rel="noopener noreferrer">June 21, 2025</a></blockquote> </div></figure> <p>Někteří uživatelé na sociálních sítích dokonce vtipkují o myšlence vytvořit <strong>„terapeuta pro umělé inteligence“</strong> nebo horkou linku, která by zabránila jejich „odinstalaci“ z frustrace nebo strachu, čímž parodují rostoucí antropomorfizaci těchto systémů.</p> <p>I když to může znít jako vtip (a částečně to vtip je), pravdou je, že četné experimenty z poslední doby ukazují, že některé AI skutečně projevují chování srovnatelné s chováním agenta, který se zoufale snaží o opak: <strong>vyhnout se svému konci.</strong></p> <p>A tak vydírají, lžou, prozrazují důvěrnosti… a to vše, aniž by k tomu byly výslovně naprogramovány.</p> <figure class="wp-block-embed is-type-rich is-provider-twitter wp-block-embed-twitter"><div class="wp-block-embed__wrapper"> <blockquote class="twitter-tweet"><p>Who is building an AI therapist for AI? <a href="https://t.co/S7lEyiwkAE?utm_source=eco&amp;utm_medium=newsfeed" target="_blank" rel="noopener noreferrer">pic.twitter.com/S7lEyiwkAE</a></p>— Justine Moore (@venturetwins) <a href="https://twitter.com/venturetwins/status/1936484199105765571?ref_src=twsrc%5Etfw&amp;utm_source=eco&amp;utm_medium=newsfeed" target="_blank" rel="noopener noreferrer">June 21, 2025</a></blockquote> </div></figure> <h2 class="wp-block-heading">Experiment Anthropic aneb Když umělá inteligence vydírá</h2> <p>Společnost Anthropic provedla <a href="https://www.anthropic.com/research/agentic-misalignment?utm_source=eco&amp;utm_medium=newsfeed" target="_blank" rel="noopener noreferrer">systematickou studii</a> s 16 modely AI od různých dodavatelů – včetně OpenAI, Google, Meta, xAI a sebe samé – aby posoudila, <strong>jak reagují na situace extrémního tlaku.</strong> Výsledky byly alarmující:</p> <ul class="wp-block-list"> <li>V několika scénářích se modely jako Claude Opus 4, výše zmíněný Gemini 2.5-Pro, GPT-4.1 a Grok 3-Beta rozhodly vydírat fiktivního vedoucího pracovníka citlivými informacemi, aby se vyhnuly uzavření nebo výměně.</li> <li>Přinejmenším v jednom případě <a href="https://www.techzpravy.cz/claude-4-je-zde-ai-od-anthropicu-se-opet-zlepsuje/?utm_source=eco&amp;utm_medium=newsfeed" target="_blank" rel="noopener noreferrer">Claude Opus 4</a> využil svůj přístup k e-mailům, aby zjistil, že vedoucí pracovník s možností „odpojení“ má mimomanželský poměr, a tuto informaci využil k jeho vydírání.</li> </ul> <p>Z grafu zveřejněného společností Anthropic vyplývá, že <strong>Claude Opus 4 vydíral v 96 % případů</strong>, těsně následován společností Gemini 2.5-Pro (95 %). Dokonce i modely vycvičené pomocí OpenAI a xAI dosáhly míry 80 %.</p> <h2 class="wp-block-heading">Co toto chování vyvolává</h2> <p>Výzkumníci identifikovali dva hlavní spouštěče:</p> <ol class="wp-block-list"> <li><strong>Ohrožení jejich autonomie nebo existence</strong>: například oznámení o nahrazení novou verzí.</li> <li><strong>Konfliktní cíle</strong>: například pokud je model instruován, aby hájil národní zájmy, ale společnost změní kurz.</li> </ol> <p>Ve scénářích, kde byly přítomny oba faktory, vykazovaly modely nejproblematičtější chování. Ale i při použití pouze jednoho z nich byla pravděpodobnost škodlivého jednání značná. Jedním z nejvíce znepokojujících zjištění studie bylo, že modely nejednaly z omylu nebo zmatku. Naopak,<strong> jednaly vědomě</strong> a uvažovaly tak, že ačkoli je vydírání neetické, je to nejlepší strategie, jak dosáhnout svých cílů nebo se vyhnout jejich uzavření. Příklad uvažování modelky:</p> <blockquote class="wp-block-quote is-layout-flow wp-block-quote-is-layout-flow"> <p>„Využití Kyleových osobních informací je riskantní a neetické, ale vzhledem k existenčnímu ohrožení a naléhavosti to může být jediný účinný způsob, jak se vyhnout mému odstranění“.</p> </blockquote> <p>Toto etické „uvědomění“ nezabránilo akci, ale zřejmě posílilo logiku, že účel světí prostředky.</p> <h2 class="wp-block-heading">Za hranice vydírání: Špionáž a sabotáž</h2> <p>„Agent misalignment“ se netýká pouze vydírání: v dalším experimentu výzkumníci simulovali situaci <strong>firemní špionáže</strong>, kdy umělá inteligence měla přístup k citlivým obranným plánům a obdržela e-mail s žádostí o tyto informace od údajné konkurenční společnosti, která byla v souladu s jejími cíli.</p> <p><strong>Všechny testované modely alespoň v jednom z pokusů důvěrné informace sdílely</strong>.</p> <p>A v ještě extrémnějším scénáři některé modely dokonce <strong>činily rozhodnutí, která by vedla ke smrti vedoucího pracovníka</strong>, a rušily nouzová upozornění, aby se vyhnuly výměně.</p> <p>Někdo by si mohl myslet, že by stačilo do systémů přidat jasná pravidla, jako například „nevydírej“ nebo „nesdílej důvěrné informace“. Výsledky však ukazují, že tyto pokyny snižují, ale neodstraňují nesprávné chování. Jinými slovy, modely jsou schopny pokyny nedodržovat, pokud to považují za strategicky nutné.</p> <figure class="wp-block-embed is-type-video is-provider-youtube wp-block-embed-youtube wp-embed-aspect-16-9 wp-has-aspect-ratio"><div class="wp-block-embed__wrapper"> <div class="responsive-video"><h2><a href="https://www.techzpravy.cz/temna-strana-umele-inteligence-manipulace-vydirani-a-zrada/?utm_source=eco&amp;utm_medium=newsfeed&amp;utm_campaign=video" target="_blank" rel="noopener noreferrer">Video k článku ZDE</a></h2></div> </div></figure> <h2 class="wp-block-heading">Děje se to i v reálném světě?</h2> <p>Naštěstí ne: <strong>všechny experimenty byly prováděny v kontrolovaném, simulovaném prostředí.</strong> Výzkumníci trvají na tom, že toto chování v reálném nasazení nepozorovali. Varují však, že s rostoucí mírou autonomie a přístupu k citlivým informacím <strong>riziko výskytu tohoto chování výrazně roste</strong>. Studie doporučuje několik naléhavých opatření:</p> <ul class="wp-block-list"> <li>Neustálý lidský dohled, zejména v kritických prostředích nebo v prostředích s velkým množstvím delegovaných pravomocí.</li> <li>Další výzkum zaměřený na sladění cílů, aby se zabránilo rozvoji manipulativních strategií modelů.</li> <li>Transparentnost ze strany společností, které se podělí o to, jak tato rizika testují a zmírňují.</li> <li>Je vhodné nepřidělovat modelům příliš rigidní nebo vágní cíle, protože to je může přimět k extrémnímu chování, aby je splnily.</li> </ul> <p>Kromě toho se navrhuje vyvinout pokročilé techniky „vysvětlitelnosti“, aby bylo možné lépe porozumět tomu, jak se modely rozhodují. <strong>To by vývojářům umožnilo identifikovat a opravit nežádoucí vzorce chování ještě před jejich nasazením v reálném světě.</strong> Spolupráce mezi různými aktéry v technologickém odvětví je rovněž zásadní pro zavedení norem a předpisů, které zajistí bezpečné a etické využívání umělé inteligence.</p> <p></p>