S pomocí robotů inteligentního chatu, jako jsou vyhledávače, fatální chyba: 4 důvody, které to vysvětlují

Nedávno jsem si všiml znepokojivého trendu mnoha uživatelů, kteří závisí na velkých jazykových modelech (LLM), jako je Chatgpt a další, jako jejich nejdůležitější vyhledávací pomůcky. Tato závislost přehlíží základní skutečnost, že tyto modely jsou navzdory jejich vývoji stále náchylné k chybám a že tyto chyby mohou mít vážné důsledky. Zabývání se robotům inteligentního chatu, jako je úplná alternativa k vyhledávacím strojům, jako je Google, představuje palác, a my si prohlédneme následující důvody, které tento přístup načítají riziky.

Co je poptávka modelu Chatgpt a GPT-4o

4. Získejte nesprávné informace s důvěrou a halucinací

Podstata problému spočívá v umělé inteligenci -podporované chatové roboty, které jsou navrženy tak, aby vypadaly chytře, ne jako přesné. Když položíte otázku, UU často dává odpověď, která se zdá být publikována spolehlivým zdrojem, i když je to úplně špatné. To je velmi důležité a musí být pochopeno v důvěře těchto nástrojů.

DeepSeek-R1 generuje nějaký text o původním iPhoneDeepSeek-R1 generuje nějaký text o původním iPhone

Nejlepší příklad toho je to, co se nedávno stalo pro australského cestovatele, který zasadil výlet do Chile, a tak se zeptal Chatgpta, jestli potřebuje vízum. Robot s jistotou odpověděl, že to nepotřebuje, a zdůraznil, že Australané mohou vstoupit bez víza.

Odpověď se zdála logická, takže cestovatel si rezervoval lístky a když dorazil do Chile, bylo mu zabráněno vstoupit. Zdá se, že Australané opravdu potřebují vízum, aby vstoupili do Chile, a tuto osobu zcela zasekl v jiné zemi.

Tento typ nehody klesá, protože modely LLMS ve skutečnosti nehledají odpovědi. Naopak, vyrábějí texty založené na vzorcích, které jsem viděl dříve, což znamená, že mohou vyplnit díry informacemi, které se zdá být rozumné, i když se mýlí. Nebezpečnější, neřekne vám, že si není jistá – obvykle bude odpověď dána jako absolutní skutečnost.

Z tohoto důvodu jsou „halucinace“ velkým problémem. Není to jen špatná odpověď, ale spíše nesprávná odpověď, která vypadá správně. A když jsou v životě přijímána skutečná rozhodnutí, dojde k skutečnému poškození.

Také číst  Strategická investice do budoucnosti, dokonce s vysokými náklady

Přestože existují způsoby, jak zabránit „halucinacím“ umělé inteligence, můžete zůstat náchylní ke ztrátě peněz nebo chybět termíny, nebo, jako v tomto případě, spadnout na letiště kvůli vaší důvěře, že opravdu nevíte, o čem to mluvíte. Tyto nástroje musí být řešeny s velkou opatrností a vyhodnocují informace, které poskytujete nezávisle, než budete nutné, než učiníte fatální rozhodnutí.

3. Modely velkých jazyků: Školení o omezených datových skupinách a neznámých předsudcích

Modely LLMS závisí na jejich tréninku obrovského množství dat, ale obsah těchto přesných údajů zůstává neznámý. Tato data se skládají z heterogenní kombinace webových stránek, knih, fór a dalších veřejných zdrojů.

Předpokládejme, že se snažíte pochopit, jak můžete dodat daně jako nezávislý zaměstnanec a že pro pomoc používáte robota konverzace. Může vám poskytnout dlouhou a podrobnou odpověď, ale tato rada může být založena na zákonech starého IRS (IRS) nebo dokonce na jakékoli pozastavení uživatele na fóru. To je hlavní problém, s nímž jsou uživatelé konfrontováni, aby pochopili, jak funguje umělá inteligence.

Robot konverzace vám neřekne zdroj informací a nenaznačuje, zda se něco nevztahuje na vaši situaci. Dříve formuluje odpověď, jako by byla vydána specializovaným daňovým odborníkem.

To je problém se zkreslením ve velkých jazycích. Ne vždy souvisí s politickými nebo kulturními předsudky, ale může to souviset také s těmi, jejichž hlasy byly přijato a které jsou vyloučeny. Pokud údaje o školení mají tendenci do určitých oblastí, názorů nebo časových období, budou také odpovědi. Možná si to nemusíte vždy všimnout, ale rada, kterou obdržíte, může být neviditelná. Proto musí být informace poskytované velkými jazyky zacházeno s opatrností a kritickým hodnocením, zejména v citlivých oblastech, jako jsou daně, zdraví nebo legislativa.

2. roboti inteligentního chatu: Pouze ultrazvuk vašich názorů

Když položíte pochybnou otázku ohledně robota inteligentního chatu, obvykle vám to dává odpověď, která vypadá podpůrně, i když se tato odpověď zcela změnila na základě způsobu, jakým je otázka formulována. To neznamená, že umělá inteligence s vámi souhlasí, ale dříve je navržena tak, aby byla užitečná, a ve většině případů znamená „pomoc“ zachování vašich předpokladů.

Také číst  Průzkum odhaluje přístup k propuštění

Pokud se například zeptáte: „Je snídaně opravdu důležitá?“ Chat Robot vám může říct, že speciální snídaně je dobrá a může ji dokonce spojit s přerušovaným půstem. Ale pokud se zeptáte: „Proč je snídaně nejdůležitější jídlo denně?“, Dává vám přesvědčivý argument o energetické úrovni, metabolismu a zlepšení. Stejný předmět, úplně jiný tón, protože má jen interakci s tím, jak byla otázka položena.

Chatgpt komplimentuje prohlášení ne-zinChatgpt komplimentuje prohlášení ne-zin

Většina z těchto modelů je navržena tak, aby se uživatel cítil spokojený s odpovědí. To znamená, že to zřídka zpochybňuje vaše postavení.

Místo toho, abyste se s vámi postavili, jste již dříve souhlasili s vaším vzrušením, protože pozitivní reakce jsou spojeny se zvýšením udržitelných uživatelů. Jinými slovy, pokud je robot chatu přátelský a jisté podle vašeho názoru, je pravděpodobnější, že jej budete i nadále používat. Tato funkce, i když uživatelská zkušenost dělá zábavu, může omezit schopnost uživatele kriticky myslet a vytvářet nezávislé názory.

Existují některé modely, které namísto slepého schválení zpochybňují uživatele. Tento typ opozice může být užitečný, ale je to stále výjimka, nikoli pravidlo. Tyto modely, které používají metodu výzvy, povzbuzují uživatele, aby myslel hlouběji a lépe vyhodnotil informace, což přispívá k rozvoji jeho dovedností kritického myšlení.

1. Neaktualizovat to s okamžitými informacemi

Mnoho z nich předpokládá, že roboty chatu s umělou inteligencí jsou vždy aktualizovány, zejména s možností nástrojů, jako jsou Chatgpt, Gemini a Copilot Internet přístup. Pouze její schopnost procházet však neznamená, že je v ní, zejména pokud jde o naléhavé zprávy nebo nově vydané produkty. Přesnost okamžitých informací je pro tyto nástroje stále hlavní výzvou.

Také číst  Jednoduchá nastavení pro zrychlení prohlížeče Chrome a zlepšení jeho výkonu

Pokud se například zeptáte jednoho z chat robotů o iPhone 17 několik hodin po skončení události spouštění, pravděpodobně získáte kombinaci starých spekulací a vyráběných podrobností. Namísto podepsání informací o oficiálních webových stránkách Apple nebo spolehlivých zdrojích lze robota chatu uhodnout na základě dřívějších pověstí nebo obvyklých startovacích vzorců. Získáte odpověď, která vypadá sebevědomě, ale polovina z toho může být špatná.

K tomu dochází, protože práce ne vždy funguje ve skutečné době, jak to očekáváte. Některé stránky nemusí být indexovány nebo nástroj může záviset na dočasně uložených výsledcích, nebo se můžete jednoduše uchýlit k údajům o předškolení namísto provádění nové zkoušky. A protože odpověď je psána hladce a sebevědomě, možná si ani neuvědomíte, že je nesprávná. Tento nedostatek okamžité přesnosti je skutečnou výzvou.

Chatgpt dostane otázku ohledně iOS špatněChatgpt dostane otázku ohledně iOS špatně

Velké modely LLMS jsou pro časově citlivé informace, jako jsou souhrny mladistvých, reklamy na produkty nebo primární pokrytí, nespolehlivé. Často získáváte lepší výsledky pomocí tradičního vyhledávače a zkontrolujete samotné zdroje. Závislost na spolehlivých zdrojích zůstává velmi důležitá.

Ačkoli se tedy zdá, že „přímý přístup k internetu“ je problém, který byl vyřešen, není zdaleka dokonalost. A pokud předpokládáte, že robot chatu vždy ví, co se nyní děje, vystavíte se špatným informacím. Tyto nástroje musí být řešeny opatrně, zejména s ohledem na okamžité informace.

Nakonec existují určitá témata, kterým byste neměli věřit v Chatgpt. Pokud požádáte o právní pravidla, lékařskou radu, cestovní politiku nebo něco citlivého, je nejlepší znovu zkontrolovat z jiných zdrojů. V těchto případech zůstává nezbytná konzultační specializovaná odborníci.

Tyto nástroje jsou skvělé pro výměnu nápadů nebo získání základní znalosti něčeho neobvyklého. Nejedná se však o náhradu za odborné vedení a tímto způsobem můžete rychle vést k problémům. Musí být použit jako AIDS, nikoli definitivní zdroje informací.