S rozšiřováním AI obsahu se už nějakou dobu varuje před tím, že AI se začne trénovat sama na sobě, tedy na svých dřívějších výstupech. Google AI Overviews už s vytvářením AI obsahu na základě AI obsahu mají údajně problém.
Systémy umělé inteligence byly natrénovány na obrovském množství dat, na jejichž vzniku se podílel člověk. Na základě toho začaly tvořit nová data, což je jejich funkcí a účelem, na tom není nic špatného. Jenže už nějakou dobu se upozorňuje na to, že zde může vzniknout problém s tím, pokud se tyto dřívější výstupy AI systémů stanou novými vstupy pro další trénování. AI se tak začne učit sama na svých vlastních datech, což může představovat potíže s kvalitou obsahu. Studie, za kterou stojí Originality.ai, se snažila podívat, jak se tento problém projevuje u Googlu, který nyní vytváří AI souhrny.
Ta vyvinula model AI Detection Lite 1.0.1, který měl za úkol detekovat, zda jde o data vytvořená AI nebo člověkem. Pak náhodně vybrala 29 tisíc dotazů na témata YMYL (You Money Your Life) týkající se zdraví, štěstí nebo finanční stability. Ty mohou mít při špatně podaných informacích negativní vliv na budoucnost uživatele, který se může vrhnout do některých neuvážených finančních nebo zdravotních kroků. U těchto dotazů pak systém studoval AI přehledy, které generoval Google, a sledoval, kam vedou odkazy z těchto přehledů. Podle studie vedlo nemalých 10,4 % odkazů na zdroje, které byly velmi pravděpodobně vytvořeny pomocí AI. 15,2 % se nepovedlo klasifikovat a 74,4 % bylo označeno jako vytvořené člověkem.
Studie naznačuje, že i když AI přehledy nejsou zahrnovány do dalších trénování, odkazování na stránky s AI obsahem může těmto stránkám zvyšovat věrohodnost, viditelnost, a tím se budou ještě častěji citovat, ať už AI systémy nebo lidmi. Google studii napadl a brání se, že detektor použitý ve studii má své chyby a není dostatečně spolehlivý na to, aby dokázal poznat obsah vytvořený AI od toho, který vytvořil člověk.
Zdroj: techspot.com, ilustrační obrázek (ChatGPT)