A Google bemutatta a Keresés (Search) és a Térkép (Maps) funkciók legújabb AI alapú fejlesztéseit
2023.02.10
A Google nemrég egy párizsi eseményen mutatta be a legújabb AI fejlesztéseket. Az utolsó pillanatban zajló eseményt nagyrészt válasznak tekintették arra, hogy a Microsoft integrálta az OpenAI modelljeit a termékeibe.
A Microsoft ugyanis a napokban bejelentette, hogy az OpenAI ChatGPT chatbotjának új verziója – GPT-4 alapú – beépül az Edge böngészőbe és a Bing keresőbe is.
A Google várhatóan még számos új AI bejelentéssel készül a májusi I/O fejlesztői konferenciára, hiszen
az OpenAI megkongatta a vészharangot a Google-nál a ChatGPT-vel. A Google vezérigazgatója, Sundar Pichai meghívására a cég alapítói – Larry Page és Sergey Brin – visszatértek egy sor találkozóra, hogy áttekintsék a Google mesterséges intelligencia termékstratégiáját.
A kiszivárgott hírek szerint a Google vezetősége úgy döntött, hogy
a Google felgyorsítja a mesterséges intelligencia felülvizsgálati folyamatát, hogy gyorsabban telepíthesse a megoldásokat. E jelentések és a Google magas rangú etikai kutatók kirúgása közepette sokan aggódnak amiatt, hogy a vállalat nem fog eléggé biztonságos termékeket piacra dobni a jövőben.
Változások a Google Search (kereső) motorban
A Kereső funkció tulajdonképpen a Google kenyéradó gazdája. Úgy tűnik, hogy a ChatGPT-vel továbbfejlesztett Bing jelentheti a legnagyobb fenyegetést a Google számára.
„
Még mindig a keresés funkcióval lövünk a Holdra...” –
mondta Raghavan. Hozzátéve: „
miközben a Hold folyamatosan mozog!”
Egy másik, a mesterséges intelligencia által továbbfejlesztett termék
a Google Lens, amelyet ma már havonta több mint 10 milliárd alkalommal keresnek fel a felhasználók.
„
A kamera lesz a következő billentyűzetünk!” –
magyarázta el Raghavan. "
Küszöbön a vizuális keresés kora."
Most kiderült, hogy
a Google Lens-t kibővítik a videotartalmak támogatására is. A felhasználó aktiválhatja a Lenst, megérinthet valamit, amiről többet szeretne megtudni egy videoklipben (például egy tereptárgyat), és a Google további információkat jelenít meg a kiválasztott témáról.
„
Ami megjelenik egy videóban a szemed előtt, arról mindent elolvashatsz majd.” –
mondta Liz Reid a Google-tól.
A többrétegű keresés egy másik lenyűgöző fejlesztés, amelyet a Google bemutatott. A funkció lehetővé teszi a felhasználók számára, hogy kép és szöveg alapján is kereshessenek egyidejűleg, így például megpróbálhatunk egy adott széket vagy ruhadarabot más színben is keresni.
Reid azt mondta, hogy a felhasználók képesek lesznek lefényképezni valamit, például egy pékárut, és megkérhetik a Google-t, hogy ajánljon egy közeli helyet a Google Maps-ről, megvásárolható a fotón is látható „bármi”. A Google azt állítja, hogy ez a funkció már 99%-ban készen van és hamarosan elérhető lesz a mobil készülékek böngészőinek kereső motorjában.
Bard
Ez lett a Google válasza a ChatGPT-re, és a LaMDA (Language Model for Dialogue Applications) motor hajtja. A LaMDA egy olyan modell, amely a Transformerre, egy neurális hálózati architektúrára épül, amelyet még a Google Research talált ki és terjesztette nyitott forráskóddal 2017-ben. Ahelyett, hogy előre meghatározott válaszokra hagyatkozna, mint például a régebbi chatbotok,
a LaMDA-t a párbeszédre képezték ki a nyitottabb természetes interakciók érdekében, és naprakész információkat szállít az internetről.
A Bard már most is elérhető a megbízható tesztelők számára, de a Google a szélesebb körű bevezetés előtt ellenőrizni fogja, hogy megfelel-e a vállalat biztonsági követelményeinek.
Prabhakar a továbbiakban kiemelte, hogy
a generatív AI-ban rejlő lehetőségek messze túlmutatnak a szövegen. A Google generatív mesterséges intelligencia segítségével a jövőben 360 fokos nézetet hozhatunk létre az olyan cikkekről, mint pl. a cipők, mindössze néhány kép felhasználásával.
Google Maps (Térkép)
Chris Phillips, a Google Geo Group vezetője adott áttekintést néhány mesterséges intelligencia-fejlesztésről, amelyet a vállalat a Google Térképhez illesztett.
Phillips szerint a mesterséges intelligencia „
a Google Maps következő generációjának hajtóereje”. A Google mesterséges intelligencia segítségével több milliárd Street View-t és valós képeket ötvöz, hogy a 2D-s térképeket „többdimenziós nézetekké” alakítsa, amelyek
lehetővé teszik a felhasználók számára, hogy gyakorlatilag az épületek felett repülhessenek, ha bárhova a világban utazást terveznek, hogy már jó előre felfedezhessék a kiszemelt célpont környezetét.
A leglenyűgözőbb azonban az, hogy a mesterséges intelligencia hogyan teszi lehetővé mindezt a Google számára, hogy a beltéri helyszíneken készített 2D-s képekből 3D-videókat állítson elő. Az egyik példa arra, amikor ez hasznos lehet, ha egy randevú előtt pl. benézünk egy étterembe, hogy megnézzük, romantikus lesz-e a világítás, vagy az általános légkör odabent.
További fejlesztések zajlanak a „Search with Live View” funkcióban is, amely AR segítségével segít az embereknek megtalálni a közeli dolgokat, például bankautomatákat.
Amikor olyan dolgokat keresünk, mint például a kávézók, az AR nézetből láthatjuk, hogy nyitva vannak-e, és azt is, hogy általában mennyire vannak teli, érdemes-e előtte asztalt foglalni, stb.
A Google szóvivője elmondta azt is, hogy most hajtják végre a beltéri élőkép fejlesztés legnagyobb bővítését.
A beltéri élőkép szolgáltatás 1000 új repülőtérrel, vasútállomással és bevásárlóközponttal bővül.
Az elektromos járművek tulajdonosai számára készült új Google Térkép-funkciók a forgalom, a töltöttségi szint és az energiafogyasztás figyelembevételével segítik az utazás megtervezését. A töltés leállítására vonatkozó javaslatok javulni fognak, és a „Nagyon gyors” töltési szűrő segít az elektromos járművek tulajdonosainak olyan helyet választani, ahol gyorsan fel lehet tölteni a járművet, és már mehetünk is tovább.
Mivel az elektromos autózásnál még fenntarthatóbb a gyaloglás, a Google „áttekinthetőbbé” teszi a gyalogos útvonaltervezést. A vállalat azt állítja, hogy az elkövetkező hónapokban globálisan bevezetésre kerül mindez Androidon és iOS-en is.
Forrás: Artificial Intelligence News