Google postupně uvolňuje svého vyhledávacího chatbota Bard, který je k dispozici už i pro některé uživatele z Česka. Jeho motor jménem LaMDA nicméně brzy nahradí odlišná technologie.
Google vyvíjí umělou inteligenci lamdu už roky. Oficiálně se s ní světu pochlubil v květnu 2021. Podle šéfa společnosti Sundara Pichaie ale nesplnila očekávání. Dílem i proto, že si Google při své velikosti nemůže dovolit nasadit do klíčového produktu funkci, která bude občas psát nesmysly.
PaLM je 4× větší než LaMDA
Na řadě je tedy PaLM, generačně novější technologie s 540 miliardami parametrů (LaMDA jich má 137 miliard, GPT-3 175 miliard a v případě GPT-4 ověřený údaj chybí, spekuluje se ale o několikanásobku). Nebude to ovšem hned a nejspíše opět ne pro každého, s více parametry totiž přirozeně roste i hardwarová náročnost umělé inteligence.
PaLM slibuje znalost napříč obory
Google proto musí neustále zvažovat, jestli se mu něco takového vyplatí. Na jednu stranu je tlačen k nasazení obecnější AI ze strany konkurenčního Microsoftu a OpenAI, ale na stranu druhou to musí také účetně vycházet. Google je firma žijící z reklamy, ale nasazení alternativy k GPT-4 mu už další miliardu uživatelů prostě nepřinese.
Stejně tak ale nemůže dopustit, aby kvůli svému konzervativnímu přístupu o další miliardu návštěvníků nepřišel jednoduše kvůli tomu, že utečou právě k novému Bingu. To se už ostatně děje, byť zatím spíše jen mezi některými nadšenými early-adoptery.
Google má totiž díky Androidu ohromnou výhodu v podobě stabilního zázemí. Dokud bude na většině telefonů ve výchozím stavu svítit na ploše vyhledávací proužek Googlu a ikona Chromu, nejspíše se nemusí ničeho obávat.
Co je to parametr AI
Parametrem neuronové sítě jsou váhy a jejich korekční biasy. Váhy Jsou strojovým učením vycvičené rozhodovací koeficienty na softwarových synapsích mezi neurony. Čím více parametrů, tím komplexnější znalost AI.
Naučená váha (V) je koeficient pro aktivační funkci (f), která zpracovává vstup (X). Do hry vstupuje ještě tzv. bias, ale raději to nebudeme dále komplikovat
Jen parametry ale nestačí. Záleží také na kvalitě – pestrosti – studijních dat a samozřejmě také na co nejefektivnější architektuře samotné neuronové sítě, Parametrům jsme se věnovali v samostatném článku o velkém jazykovém modelu LLaMA.