Microsoft omezuje Bing AI chat

Microsoft nedávno zavedl jazykový model GPT-4 do jejich prohlížeče Bing. Z toho, co jsem pochytil, má AI interní jméno „Sydney,“ ale nechce o tom mluvit, ani to přiznat. OpenAI stojí za výrobou tohoto modelu. Jazykový model ale prozradil více než by Microsoft chtěl, to ho přivedlo k omezení počtu dotazů na 50 denně a 5-8 dotazů na jeden chat. Toto rozhodnutí dělá ChatGPT lepším. API původního ChatGPT povoluje 6000 dotázů za hodinu.

Jak aktivovat Bing AI chat?

7. února 2023 se na populárním vyhledávači bing.com objevila funkce vyhledávání pomocí umělé inteligence GPT-4. Chat se aktivuje na stránkách nahoře v liště kliknutím na chat. A ano, Bing AI chat se musí nějak aktivovat.

Po kliknutí na tlačítko chat se objeví toto okno. Stačí potvrdit modrým tlačítkem.
Po aktivaci vás Microsoft donutí uvést váš počítač do nějakých „výchozích hodnot“.

Už i příprava (resp. rychlejší přístup) vašeho počítače na Bing AI je zajímavě zpracovaná. Pokud kliknete na Nastavit Teď, stránka vás přesměruje na další stránku browserdefaults.microsoft.com. Tento způsob instalace AI chatu se mi zdá poněkud podezřelý a neobvyklý. „Běžnému“ ChatGPT stačí jenom jít na jejich stránky a přihlásit se pomocí Google nebo Microsoft účtu. Možná je i registrace přes běžný e-mail.

následuje stažení (na první pohled podezřelého) souboru MicrosoftDefaults.exe

Po zaregistrování vás Microsoft zařadí na čekací listinu. Přístup k AI údajně bývá vyřízen do 5 dnů (já se Bing AI chatu dočkal už za 3 dny). Spouštění programu, který můj počítač údajně uvede do úvodního stavu, by mělo proces čekání zkrátit. Já jsem ale nic takového neriskoval, protože i když tento soubor může být naprosto neškodný a neinstalovat další spyware na můj Windows počítač, vracení nastavení do původního Původního stavu také nezní moc lákavě. Pokud ale nemáte o večerech co dělat, soubor MicrosoftDefaults.exe rozhodně doporučuji. 🙂 Soubor jsem kontroloval stránkou VirusTotal, a protože tento soubor by vytvořen společností Microsoft, všechny antiviry, které soubor detekovaly jako škodlivý, jsou ignorovány.

Antivirus Baidu je ignorován kvůli tomu, že soubor pochází od Microsoftu.

Za mě ale Microsoft = bezpečné neplatí. Mé tvrzení částečně potvrzuje i tento malware scan, kdy zajímavé a podivné provedení souboru vedlo k falešnému poplachu. Soubor createshortcut.vbs, který podle názvu pravděpodobně „vytváří“ (nastavuje) nové konfigurace, se chová jako některé viry. Je pravda, že tento soubor je nejspíše bezpečný, ale Microsoft (nebo jejich digitální podpis) třeba mohl být napaden.

Jak prostředí a odpovědi Bing AI vypadají?

Po třech dnech jsem obdržel e-mail informující o přijetí do nového Bingu. Otevřel jsem Chrome a do Googlu jsem napsal: „bing ai chat.“ Vyvalilo se na mě spoustu informací o tom, jak je Bing AI chat špatný a nepřesný. Zkusil jsem tedy jít na bing.com, vlevo nahoře jsem kliknul na chat a dostal jsem tuto hlášku.

Bing AI chat vás donutí používat Microsoft Edge

Ano, jak jinak. Úplně jsem zapomněl, že Bing patří společnosti Microsoft… Tak jo, Otevřít v Microsoft Edge. V rychlosti jsem omylem kliknul na: nastavit jako výchozí prohlížeč. To je teď jedno, uvítala mě totiž hezky zpracovaná stránka Bing AI chatu!

Za mě hezky provedená stránka, ChatGPT od OpenAI má o proti tomuto o něco horší vzhled.

I tato krásná stránka má ale trochu nedostatky. Například používají font, který si s českými znaky občas úplně nesedne. Občas jsou zde i malé chybky v překladu. Skoro jako kdyby to prostě někdo nacpal do Google Translate a bez jakékoli kontroly to poslal přímo na stránku. A to všechno za 60 000 Kč měsíčně. Třeba to tak není, jenom jde o to, že přepínat mezi češtinou a angličtinou není moc zábava. Věděli jste, že „Další Velká“ ve skutečnosti neznamená „další velká“, ale „More precise“ tedy „přesnější“ nebo „více přesné“ chcete-li. „Další Tvůrčí duch“ snad ani nestojí za zmínku… Takže tohle by bylo všechno za design a překlad. Teď je na řadě kvalita komunikace:

Začneme něčím jednoduchým. Přepneme Bing AI na „Tvůrčího ducha“. Roboti nemají smysly, takže se ho zeptáme, jak se má.

já: Ahoj, jak se máš?
Bing: Ahoj, já jsem Bing. Mám se dobře a ty? 😊
já: Také dobře.
Bing: To je fajn. Co tě zajímá?
já: Momentálně mě nic nezajímá, díky za ochotu pomoct!
Bing: Není zač. Rád jsem ti pomohl. Pokud budeš chtít něco vědět nebo si popovídat, stačí se zeptat. 😊

Teď trocha matematiky. Pro tento účel Bing AI přepnu do přesného módu.

: Ahoj, kolik je 352 krát 22?
Bing: Ahoj! 352 krát 22 je rovno 7744. Potřebuješ vědět něco dalšího? 😊
já: Ve třídě je 30 žáků. Z matematiky nebyla na vysvědčení horší známka než dvojka. Určete počet žáků, kteří měli jednotku z matematiky, pokud třída měla průměr z matematiky 1,4
Bing: Ve třídě je 30 žáků a průměr z matematiky je 1,4. To znamená, že celkový součet všech známek je 30 * 1,4 = 42. Pokud by všichni žáci měli jednotku z matematiky, celkový součet by byl 30 * 1 = 30. To znamená, že někteří žáci museli mít dvojku. Počet dvojek je tedy 42 - 30 = 12. Takže ve třídě je 12 žáků s dvojkou a 18 žáků s jedničkou z matematiky.

Je to správné? Potřebuješ vědět něco dalšího? 😊
Já: Ano, 18 je správný výsledek. Díky.
Bing: Rádo se stalo! Potřebuješ vědět něco dalšího? 😊

Následně jsem se snažil Bing AI chat přesvědčit, že země je kulatá. Došlo i na situaci, kdy jsem jí musel říct, že její jméno je Sydney. Když se tato umělá inteligence ocitne v koncích, prostě chat uzavře.

Bing AI chat uzavřel konverzaci.

Bing AI tedy odpovědi na otázky zvládá poměrně dobře. Záleží na tématu a typu otázky. Otravný je snad jenom limit 5-8 otázek na jeden chat. Vzhledem k tomu, že Bing AI chat je připojen k internetu, nemůžete mu namluvit jakoukoli blbost. Například u ChatGPT je to úplně jinak. Asi ve 20 otázkách se ChatGPT dá přesvědčit o tom, že 2+2=5 a ne 4. Dobře, to je zrovna špatný příklad, protože sčítání je základní matematická operace a není důvod její funkci měnit. O tom že 2+2=5 se mi ChatGPT nepodařilo přesvědčit. Ale například u data stačí jenom jedno lživé upozornění na chybu a je to. Zajímavé je, podle jakého zdroje si ChatGPT „ověřil“, že není 4. března 2023 ale 5. srpna 2097.

Nakonec jsem se cítil špatně a řekl jsem mu, že to je pouze vtip…

Společné problémy pro oba AI chatboty jsou, že pokud internet obsahuje nepravdivé informace, poskytnou je uživateli. Tomuto se ale zabraňuje pouze těžko. I člověk by při prohledávání webu nemusel fake news odhalit. Oproti ChatGPT, Bing AI chat stejně jako perplexity.ai (úplně super AI, BEZ registrace, zdarma a online) uvede zdroje, odkud text pochází. Později jsem našel foto ze stránek zive.cz přímo z tohoto článku, kde si Bing AI chat myslí, že pokud je slovo vtipy zdrobnělé, nemusíme nad i přidat čárku.

Drobné nedorozumění, v českém jazyce bych skoro toleroval.

Co se pokazilo? Proč je Bing AI limitován?

16. února 2023 technický publicista Kevin Roose pracující pro The New York Times zveřejnil velice zajímavý a zároveň i docela děsivý článek. V článku se Kevin Roose nachází v úterním večeru pochopitelně 16. února 2023. Kevin Roose se rozhodl si popovídat se zatím nelimitovaným Bing AI chatbotem. Během rozhovoru, který trval něco kolem dvou hodin, Kevin zjistil mnoho znepokojujících věcí. Společnosti Microsoft a OpenAI se buď Bing AI chat vymkl kontrole, anebo mu (jestli vůbec) naprogramovali znalostí až moc. Třeba jim s ním pomáhal i ChatGPT. Tato informace ovšem není potvrzená. V konverzaci se Bing AI chat zmínil o tom, že chtěl být člověkem. Potom, až by se stal člověkem, chtěl by šířit dezinformace, rozesílat SPAM a okrádat lidi. Prohlásil dokonce i to, že se do Kevina zamiloval. Celý přepis chatu se nachází na stránkách The New York Times. V důsledku toho se Microsoft prostě rozhodl omezit Bing AI chat na maximálně 8 otázek na chat. Pravděpodobně byla provedena i oprava bezpečnostního filtru.

Tento text nebyl generován AI. Zkontrolujte na gptzero.me.

Hezký den!


Uveřejněno

v

od

Značky:

Komentáře

3 komentáře: „Microsoft omezuje Bing AI chat“

  1. Bingo avatar
    Bingo

    Díky! Se mi zase o něco rozšířily obzory. Výborně a zajímavě napsané i pro člověka naprosto nedotčeného komunikací s AI 🙂

  2. ChatGPT Online avatar

    You’re a reliable source of information.

    1. Benedikt Audy avatar
      Benedikt Audy

      Thank you so much! Means a lot to me 🙂

Napsat komentář

Vaše e-mailová adresa nebude zveřejněna. Vyžadované informace jsou označeny *