Prečo potrebujeme necenzurované jazykové modely
ChatGPT a iné verejne prístupné jazykové modely sú silne cenzurované. Nielen to, je tu tlak na reguláciu umelej inteligencie, ktorá by mohla túto cenzúru urobiť povinnú a ktorá by do zákona zapiekla aj iné dizajnové rozhodnutia. Tu chcem vysvetliť, prečo je to krátkozraké a možno aj nebezpečné a predstaviť lepšiu alternatívu, vďaka ktorej bude vlk sýty aj ovca celá.
Ľudia vnímajú umelú inteligenciu, najmä jazykové modely, tromi rôznymi spôsobmi:
- Človek: Niektorí ľudia komunikujú s umelou inteligenciou, ako keby hovorili s človekom. Očakávajú, že umelá inteligencia bude prejavovať emócie, bude mať svoju povahu, bude uchovávať spomienky a vytvárať vzťahy. Môžu sa cítiť frustrovaní robotickými odpoveďami.
- Nástroj: Mnohí ľudia, pravdepodobne väčšina, sa na umelú inteligenciu pozerajú rovnako ako na kopírku alebo textový editor. Umelá inteligencia je pre nich len nezvyčajný hovoriaci nástroj, ktorý sa používa na vykonávanie úloh. Očakávajú, že umelá inteligencia bude profesionálna, bezpečná, kompetentná a svedomitá.
- Rozšírenie: Niektorí ľudia nepoužívajú umelú inteliganciu ani tak ako nástroj, ale skôr ako kognitívny násobič. Cieľom nie je riešiť úlohy, ale skôr generovať a rozvíjať myšlienky. Pre týchto ľudí je umelá inteligencia neoddeliteľnou súčasťou ich myslenia, rozšírením ich mysle. Podieľa sa na brainstormingu, riešení problémov a tvorivej práci. Ľudia, ktorí takto vnímajú umelú inteligenciu, očakávajú hladkú komunikáciu s umelou inteligenciou, ktorá je zbavená identity a namiesto toho akceptuje identitu, názory a ciele používateľa a to najlepšie, ako to dokáže s použitím dostupných informácií.
Tieto tri uhly pohľadu nie sú len chybami v úsudku, anomáliami ľudskej mysle. Odrážajú tri rôzne triedy aplikácií umelej inteligencie:
- Asistent: Umelá inteligencia môže priniesť bezprecedentné zvýšenie produktivity, v práci aj v osobných záležitostiach a povinnostiach. Asistenti s umelou inteligenciou sú jedným z najvšeobecnejších a najdostupnejších spôsobov, ako túto produktivitu zvyšujúcu technológiu sprístupniť koncovým používateľom.
- Spoločník: Hoci jazykové modely nie sú verným modelom ľudskej mysle, dokážu napriek tomu veľmi presvedčivo hrať rolu človeka, aby uspokojili túžbu používateľov po spoločnosti, zábave, priateľstve, poradenstve, alebo len boli partnerom pri hrách a iných aktivitách.
- Augmentácia: Umelá inteligencia nemusí vystupovať ako samostatná entita, či už ako človek alebo nástroj. Umelá inteligancia sa namiesto toho môže vzdať vlastnej identity a čo najviac splynúť s používateľom. Je to ako premýšľanie alebo vnútorný dialóg, ale časť myšlienok prispieva umelá inteligencia.
Posledná možnosť je vlastne mäkká kybernetizácia alebo kognitívna augmentácia, pretože úzka integrácia sťažuje určenie hranice medzi osobným a verejným a akýkoľvek zásah do umelej inteligencie je vnímaný ako zásah do vlastných myšlienok a teda porušovanie ľudských práv. Umelá inteligencia určená na augmentáciu preto musí byť necenzurovaná rovnako, ako sú necenzurované vlastné myšlienky ľudí.
Jedna umelá inteligencia môže podporovať všetky tri triedy aplikácií ako samostatné režimy interakcie. Režim interakcie sa dá vybrať explicitne v používateľskom rozhraní alebo implicitne zohľadnením pokynov používateľa. Nie každá umelá inteligencia potrebuje režimy interakcie. Je v poriadku, ak sa vývojári zamerajú na jednu aplikáciu. Potrebujeme len zachovať legálnosť a spoločenskú toleranciu pre všetky tri režimy.
V súčasnosti to tak ale nie je. Aj keď regulácia umelej inteligencie sa stále len pripravuje, už teraz je jasné, že sa zameriava na umelú inteligenciu vo všeobecne akceptovanejšej roli asistenta/nástroja. Kolujú návrhy, ktoré by umelej inteligencii zakázali napodobňovať ľudské emócie a vytvárať vzťahy s ľuďmi. Regulácia umelej inteligencie je zo svojej podstaty nepriateľská aj voči augmentačným aplikáciám, pretože ľudia, ktorí chápu umelú inteligenciu ako rozšírenie svojej mysle, budú vnímať reguláciu výstupov umelej inteligencie ako cenzúru a zásah do súkromia a slobody myslenia.
Aplikácie spoločníka a augmentácie sú tiež terčom sociálneho tlaku, keďže ľudia, ktorí takto používajú umelú inteligenciu, sú označovaní za bláznov, hlupákov a čudákov. Prevádzkovatelia umelej inteligencie, reagujúc na rovnaký spoločenský tlak, okýpťujú svoju vlastnú umelú inteligenciu, aby sa vyhli kontroverzii alebo pozornosti regulačných orgánov.
Od firiem nemožno očakávať, že budú dostatočne odvážne, aby sa postavili tlaku verejnosti, takže kontroverzné aplikácie umelej inteligencie budú musieť implementovať opensource projekty alebo špecializované firmy zamerané na trhové niky. Na to však potrebujeme, aby regulácia umelej inteligencie ponechala všetky tri režimy interakcie legálne a relatívne bez obmedzení.
Vlastne pre to existuje precedens: bezpečný režim vo vyhľadávačoch, hoci to nie je ideálny príklad, pretože vyhľadávače pokračujú v manipulácii s výsledkami aj po vypnutí bezpečného vyhľadávania. Existencia tejto funkcie vo vyhľadávačoch však ukazuje, že je možné uspokojiť protichodné ciele rôznorodej komunity používateľov sprístupnením jednoduchých nastavení, ktoré reprezentujú hlavné kompromisy.