Die Neuerung stellte das Unternehmen kürzlich vor. Wie O2 mitteilt, habe man spezielle Telefonnummern in Listen eingeschleust, die Kriminelle für ihre Betrugsanrufe nutzen. Wählen sie eine davon, stoßen sie jedoch nicht auf eine echte Person – sondern auf Oma „Daisy“, die sehr viel Zeit für Gespräche hat und an der sich die Kriminellen die Zähne ausbeißen.
In einem Video ist zu hören, wie „Daisy“ funktioniert: In einem Telefonat will ein mutmaßlicher Betrüger die Oma offenbar auf eine Website lenken, damit sie dort persönliche Daten eingibt – doch „Daisy“ missversteht die Anweisung demonstrativ. Mit einem anderen plaudert sie munter und erklärt ihm, sie wolle „einen kleinen Small Talk“ führen – obwohl der Angreifer eigentlich nur an ihr Geld will. Eine Anruferin wird durch „Daisys“ Ausdauer förmlich zur Weißglut gebracht: Die Frau beschwert sich lautstark, weil sie bereits seit einer Stunde mit „Daisy“ telefoniere und trotzdem noch nichts erreicht habe. Die KI-Oma antwortet entspannt: „Himmel, wie die Zeit verfliegt.“ Ein Betrüger beleidigt „Daisy“ wegen ihrer Wortwahl: „Hör auf, mich immer Liebling zu nennen, du dumme ***.“ „Daisy“ antwortet ruhig: „Alles klar, Liebling.“
In dem Werbevideo wird „Daisy“ als der „schlimmste Albtraum“ von Internetkriminellen angekündigt. Über eine Kurzwahlnummer können Britinnen und Briten zudem Scam-Nummern an den Konzern melden.
Wie effektiv „Daisy“ wirklich im Kampf gegen Cyberkriminalität ist, steht allerdings auf einem anderen Blatt Papier: Die KI-Oma wird bislang ausschließlich dafür eingesetzt, Betrüger zu narren, weil sie ihre Nummer anrufen – „Daisy“ kann aber nicht per se verhindern, dass Kriminelle potenzielle Opfer erreichen.Einen echten Nutzen könnte „Daisy“ bringen, würde man die Idee einen Schritt weiterdenken: Angenommen, das Smartphone oder der Mobilfunkanbieter erkennen mithilfe Künstlicher Intelligenz einen Scam-Anruf automatisch – und schalten „Daisy“ dann als eine Art Anrufbeantworter ein. So könnte ein Betrugsanruf abgefangen und eine Straftat schon im Keim erstickt werden.
Die technischen Voraussetzungen für ein solches Szenario gibt es bereits: Die großen Techkonzerne arbeiten seit Jahren an Möglichkeiten, Betrug über das Smartphone einzudämmen – und immer öfter kommt dafür auch Künstliche Intelligenz zum Einsatz. Die Telefon-App von Google im Betriebssystem Android etwa kann verdächtige Telefonnummern schon länger erkennen und den Nutzer oder die Nutzerin davor warnen.
Doch der Betrugsschutz geht längst weiter: Auf seiner diesjährigen Produktkonferenz stellte Google eine neue Scam-Erkennung für Telefonate vor, die dieser Tage als Beta-Version ausgerollt wird. Dabei überprüft eine KI in Echtzeit, ob in einem Telefongespräch mögliche Betrugsszenarien zu hören sind – und schlägt im Zweifel Alarm. Dafür werden Gesprächsmuster analysiert. Verfügbar ist die Funktion vorerst aber nur für englischsprachige Nutzerinnen und Nutzer in den USA.
Der Smartphone-Hersteller Samsung hat mit seiner „Smart Call“-Funktion ebenfalls eine Lösung implementiert, die Spam-Anrufe filtern soll. Für Apples iPhone gibt es verschiedene Apps von Drittanbietern, die Spam- und Scam-Nummern mit Listen abgleichen und Nutzerinnen und Nutzer davor warnen können. Auch bei Textnachrichten machen die Konzerne Fortschritte.
Beliebte „Enkeltrick“-Kanäle sind längst auch SMS oder Messenger, wo sich Betrüger dann mit Schocknachrichten als Familienmitglieder ausgeben und Opfer in Gespräche verwickeln. Googles Nachrichtenfunktion kann Spam- und Scam-Nachrichten automatisch filtern und in einen separaten Spam-Ordner verschieben. Zuverlässig funktioniert das etwa bei angeblichen Paketbenachrichtigungen, die betrügerische Links enthalten. Auf Apples iPhone lassen sich – ganz ähnlich wie bei der Telefonfunktion – separate Apps installieren, die auffällige SMS erkennen und filtern können.
Auch Drittanbieter können beim Betrugsschutz helfen: Das Antivirenprogramm Bitdefender hat kürzlich einen KI-unterstützten „Scam Pilot“ vorgestellt, der mithilfe Künstlicher Intelligenz potenziellen Betrug in Nachrichten und Mails erkennen soll. Zudem soll die App den Nutzer vor bekannten Betrugsereignissen in seiner Region warnen.
Das Problem: So fortschrittlich KI-Anwendungen bei der Bekämpfung von Betrug auch sind – sie können auch für das Gegenteil eingesetzt werden. Betrüger nutzen längst Deepfake-Programme, um etwa Telefon-Scams durchzuführen. Auch wenn die Entwicklungen der Techkonzerne und KI-Oma „Daisy“ nützlich sind – am Ende bleibt der Kampf gegen Cyberkriminalität trotzdem vor allem eines: ein ewiges Katz- und-Maus-Spiel.