Google AI Overviews, funkcia navrhnutá na zjednodušenie vyhľadávania, čelí vážnym problémom. Používatelia zistili, že sa v jej sumarizovaných odpovediach objavujú falošné zákaznícke linky, ktoré odkazujú priamo na podvodníkov. Výsledkom sú zablokované karty, ukradnuté údaje a finančné škody. Informuje o tom portál Hindustantimes.

Jedným z poškodených je Alex Rivlin, ktorý cez Google hľadal kontaktné číslo na Royal Caribbean. AI mu zobrazila „oficiálnu linku“. Po zavolaní sa dovolal podvodníkovi, ktorý od neho pýtal číslo karty a ďalšie osobné údaje. Rivlin včas spozornel, transakcie zablokoval, no na účte už videl neoprávnené pokusy o platbu.

Ako sa podvodníci dostali do AI výsledkov

Scenár je jednoduchý, ale účinný. Podvodníci vo veľkom šíria falošné čísla po fórach, recenziách a menej dôveryhodných stránkach. Keď sa tieto údaje dostatočne často opakujú, algoritmy ich môžu vyhodnotiť ako relevantné. Google AI Overviews potom tieto čísla vyťahuje priamo na vrchol výsledkov, čím im dáva punc dôveryhodnosti.

Podobný prípad sa stal aj používateľovi Redditu, ktorý hľadal kontaktné číslo Southwest Airlines. Výsledkom bolo opäť spojenie s podvodníkmi.

Problém je masívny

Podľa dát zo StatCounter sa v druhom kvartáli 2025 zobrazili AI Overviews až v 25 % všetkých vyhľadávaní v USA. To znamená obrovskú viditeľnosť a ideálnu príležitosť pre podvodníkov, ako nalákať nič netušiacich používateľov.

Experti upozorňujú, že nejde o nový trik, no umelá inteligencia mu dodala úplne nový rozmer. To, čo bolo kedysi skryté v menej známych rohoch internetu, sa teraz môže objaviť priamo v čele Google výsledkov.

Čo odporúčajú odborníci

Google sa zatiaľ k prípadu oficiálne nevyjadril. Bezpečnostní špecialisti však radia jednoduché pravidlo: nikdy sa nespoliehať na AI sumarizácie pri hľadaní kontaktov. Namiesto toho odporúčajú vyhľadávať priamo na oficiálnych stránkach firiem alebo použiť overené databázy.

V čase, keď sú online podvody čoraz sofistikovanejšie, môže jedna minúta overovania ušetriť stovky eur a ochrániť osobné údaje.