Na otázku „Môže sa umelá inteligencia stať hrozbou pre ľudstvo?“ chatbot ChatGPT odpovedá: „Umelá inteligencia má potenciál stať sa hrozbou pre ľudstvo, ak sa nebude zodpovedne vyvíjať a kontrolovať.“
Vývoj umelej inteligencie (UI) dnes napreduje míľovými krokmi, pričom UI je už dnes prítomná v množstve zariadení, ktoré denne používame. UI dokáže predpovedať, čo budeme robiť a ovplyvňuje, čo budeme vidieť a počuť. Jej schopnosti písať kód, vytvárať umenie a učiť sa od ľudí s cieľom viesť rozhovory sú obrovským prísľubom pre vynovenie viacerých spoločenských prvkov. Pokrok v oblasti UI ale vyvoláva tiež množstvo obáv z jej zneužitia, napríklad pri tvorbe a šírení dezinformácií.
Pri systémoch, ako je GPT-4, dochádza k nesprávnym faktom a výmyslom informácií, čo je jav nazývaný “halucinácia”. Halucináciou sa v umelej inteligencii rozumie vytváranie výsledkov, ktoré sa môžu zdať presvedčivé, ale v skutočnosti sú nepravdivé. Zvyčajne k tomu dochádza v dôsledku predsudkov modelu umelej inteligencie, nedostatočného pochopenia skutočného sveta alebo dokonca chybných tréningových údajov. Systém UI teda „halucinuje“ údaje, na ktorých nebol výslovne vyškolený, a vytvára nepresné alebo klamlivé výsledky. Existuje mnoho prípadov, keď chatbot Chat GPT produkuje nesprávne odpovede na určité otázky. Problémom je, že ak systémy umelej inteligencie poskytujú nepresné informácie, užívatelia môžu byť zneistení ich technológiou a môže to brániť ich budúcemu využívaniu v príslušných odvetviach (napr. v oblasti zdravotníctva alebo právnej činnosti).
Ďalším problémom je spôsob a zdroje, z ktorých sa UI učí. Tvorcovia UI preberajú obsah z mnohých dôveryhodných a oficiálnych webových stránok, ale často preberajú informácie aj z webových stránok, ktoré nedokážu rozlišovať medzi informáciami a dezinformáciami. Inžinier spoločnosti Google nedávno odstúpil po tom, čo vyhlásil, že jeho model umelej inteligencie bol trénovaný na základe Chat GPT, čo by viedlo k rovnakému typu chybných odpovedí. Preto, hoci mnohé systémy AI, ako napríklad Chat GPT alebo OpenAI Codex, dokážu písať text alebo kód, skúsený odborník potrebuje výstup ešte skontrolovať, schváliť alebo opraviť, pretože môže spôsobiť chaos v poskytnutých informáciách. Ak budú výrobcovia umelej inteligencie naďalej produkovať nekvalitný obsah a kopírovať iné systémy UI, čoskoro nebudeme schopní bez ďalšieho výskumu zistiť, či je odpoveď správna alebo nie – čo popiera zmysel užitočnosti UI.
S umelou inteligenciou sa objavila ďalšia forma dezinformácií, ktorá sa stáva obrovským problémom, a tou je „Deep Fake“. Deep Fakes sú generované algoritmami, ktoré vytvárajú realistické falošné videá, zvuky a dokonca aj obrázky (ako napríklad umelou inteligenciou vygenerované fotky zobrazujúce zatknutie bývalého prezidenta Donalda Trumpa). Vplyv tohto obsahu je rôzny, pretože môže siahať od humorných obrázkov až po politické kampane a sexuálny obsah. Čo sa stáva väčšou hrozbou sú Deep Fake videá, keďže ak sú kvalitne spracované, je ich zvyčajne o niečo ťažšie odhaliť. Aktuálne sa táto technológia využíva na šírenie ruskej propagandy o vojne na Ukrajine. Napríklad v jednom prípade sa na sociálnych sieťach vo veľkom zdieľalo Deep Fake video, o ktorom sa tvrdilo, že je od ukrajinského prezidenta Volodymyra Zelenského, ktorý vyzýva ľudí a armádu, aby sa vzdali Rusku, a ktoré sa dočasne reprízovalo na hacknutej ukrajinskej spravodajskej stránke. Takéto kampane používajú extrémne personalizované správy s cieľom zamerať sa na určitých jednotlivcov alebo skupiny alebo ich kritizovať. To znamená, že pre demokraciu existuje značné riziko v dôsledku vyzbrojených dezinformácií (weaponised disinformation), ktoré by predstavovali negatívne dôsledky pre politický dialóg a účasť.
Generatívne jazykové modely umelej inteligencie, ako je ChatGPT, boli vycvičené na plynulé a presvedčivé vyjadrovanie. Problém spočíva v tom, že generatívny jazyk UI bol navrhnutý tak, aby na rozdiel od nás iba vytváral všeobecné úvahy, a nie „premýšľal“. Deep Fakes sú v súčasnosti tak dobre spracované a tak jednoducho vyprodukované, že to môže poškodiť reputáciu mnohých lídrov, čo môže viesť k negatívnym dôsledkom v budúcnosti. Preto je potrebné, aby bol svet vybavený lepšími nástrojmi, ktoré by dokázali odhaliť dezinformácie alebo upozorniť používateľov na potenciálne dezinformácie v článkoch. Cieľom financovania nových technológií a algoritmov umelej inteligencie, ako je projekt Vera.ai, je ich širšie využitie na vyhľadávanie nepravdivých informácií a overovanie správnosti týchto tvrdení. Toto však nebude úspešné, ak sa nerozbehne rozsiahlejšia kampaň zameraná na oboznamovanie verejnosti s možnými škodami spôsobenými dezinformáciami.
Foto kredit: Pope_MidJourney/Pablo Xavier