Erinnern Sie sich noch, als der Begriff „Catfishing“ nur in der Welt der Online-Dating-Plattformen existierte? Inzwischen hat dieses Phänomen die Geschäftswelt erreicht – und bringt „Geistermitarbeiter“ in Ihre Teams und stellt Recruiting-Prozesse auf den Kopf. Das ist keine Science-Fiction – es passiert bereits.
Dabei geht es weit über das klassische Aufhübschen von Lebensläufen hinaus.
Unternehmen stehen heute vor einer völlig neuen Realität. Gartner prognostiziert, dass bis 2028 rund 25 % aller Bewerberprofile gefälscht sein könnten – und erste Anzeichen deuten darauf hin, dass dieser Wandel bereits begonnen hat. In dieser neuen Realität hilft KI dabei, Fake-Bewerber in großem Stil zu erzeugen. Der Aufstieg von Fake-Bewerbern durch KI verändert grundlegend, wie Unternehmen an die Personalgewinnung herangehen – insbesondere im Remote-Umfeld.
Es geht längst nicht mehr nur um geschönte Lebensläufe.
Vielmehr ist eine neue Welt entstanden, die von Fake-Bewerbern durch KI geprägt ist und es schwieriger denn je macht, echte Talente von Betrügern zu unterscheiden.
Remote-Hiring hat alle natürlichen Hürden beseitigt
![]()
Über den Großteil der Unternehmensgeschichte hinweg hatte Bewerbungsbetrug physische Grenzen. Man traf sich persönlich. Man beobachtete, wie jemand ein Problem am Whiteboard löste. Man griff zum Telefon, um Referenzen zu prüfen – und all diese Schritte zusammen machten es extrem schwer, sich in großem Stil als jemand anderes auszugeben.
Das Remote-Hiring hat die meisten dieser Hürden jedoch innerhalb weniger Jahre beseitigt. Heute kann man jemanden einstellen, den man nie persönlich getroffen hat – verifiziert nur durch einen Videocall und Dokumente, die der Bewerber selbst bereitstellt. Das schafft eine massive Schwachstelle – und KI nutzt sie bereits aus. Dieses Umfeld macht es Fake-Bewerber-KI-Systemen so leicht wie nie, Lücken im Recruiting auszunutzen.
So sieht die tatsächliche Betrugslandschaft 2025 aus:
Lebenslauf-Betrug: Künstlich generierte Lebensläufe, die in Sekundenschnelle perfekt auf die Anforderungen der Stellenanzeige zugeschnitten werden. Diese Lebensläufe enthalten erfundene Beschäftigungshistorien, frei erfundene Kennzahlen wie „Deployment-Zeit um 38 % verbessert“ und ein Format, das darauf optimiert ist, Ihr ATS zu überlisten, bevor ein Mensch sie je zu Gesicht bekommt. Genau deshalb werden Recruiting-Pipelines, die auf KI-generierte Lebensläufe setzen, bei der Erstauswahl zunehmend unzuverlässig.
Interview-Betrug: KI-gestützte Unterstützung in Echtzeit während des Gesprächs. Bewerber geben Fragen in ein Sprachmodell ein und erhalten die Antworten live über einen Ohrhörer oder auf einem zweiten Monitor. In manchen Fällen interagieren Sie in Echtzeit mit einer KI, ohne es zu bemerken.
Identitätsbetrug: Deepfake-Videointerviews, bei denen die Person auf dem Bildschirm gar nicht der eigentliche Bewerber ist. Es könnte sich um ein synthetisches Modell handeln, das aus Stock-Footage erstellt wurde. In einigen Fällen ist überhaupt kein realer Mensch beteiligt.
Geistermitarbeiter: Eine Person wird regulär eingestellt – und delegiert die Arbeit sofort an jemand anderen, der für einen Bruchteil der Kosten arbeitet. Sie kassiert das volle Gehalt, streicht die Differenz ein und steuert die Arbeit aus der Ferne. Dies ist einer der häufigsten Anwendungsfälle für die Erkennung von Fake-Mitarbeitern in Remote-Teams.
Staatlich organisierte Operationen: Nordkoreanische IT-Arbeiter-Netzwerke sorgten 2024–2025 weltweit für Schlagzeilen. Organisierte Gruppen gaben sich als hochqualifizierte Remote-Softwareentwickler aus und infiltrierten Hunderte von Unternehmen in den USA und Europa.
Wenn Bewerbungsbetrug zur Frage der nationalen Sicherheit wird
![]()
Die nordkoreanischen IT-Arbeiter-Operationen verdienen besondere Aufmerksamkeit, weil sie die industrielle Infrastruktur hinter einem Problem offenlegten, das die meisten Unternehmen als Einzelfallproblem abgetan hatten.
Organisierte Gruppen führten diese Operationen mit gestohlenen amerikanischen Identitäten und fortschrittlichen Deepfake-Tools durch.
Zudem pflegten sie LinkedIn-Profile über Monate oder Jahre hinweg, um glaubwürdig zu wirken.
Sie operierten von sogenannten „Laptop-Farmen“ – Räume voller Computer –, in denen lokale Helfer in Ländern wie China und Russland während der US-Geschäftszeiten konsistente Aktivitätssignale erzeugten, während die eigentlichen Arbeiter von ganz anderen Orten aus tätig waren.
Fallstudie: Das US-Justizministerium hat mehrere Personen angeklagt, die mit verschiedenen Netzwerken zur Einschleusung nordkoreanischer IT-Arbeiter in mehr als 300 amerikanische Unternehmen in Verbindung stehen. Ein Betreiber einer Laptop-Farm kontrollierte über 60 Geräte aus einer einzigen Wohnung heraus und leitete mehr als 1,7 Mio. USD direkt an ein ausländisches Waffenprogramm weiter.
Auch wenn die meisten Fälle von Bewerbungsbetrug nicht dieses Ausmaß erreichen, zeigen diese Fälle eindeutig: Organisierte Netzwerke haben eine Infrastruktur für groß angelegten Remote-Hiring-Betrug aufgebaut – und weniger versierte Betrüger werden diese bewährten Methoden schnell übernehmen. Die Werkzeuge staatlich geförderter Betrugsnetzwerke stehen mittlerweile jedem zur Verfügung, der einen Laptop und genug Motivation hat.
Der Lebenslauf, den Sie gerade lesen? Er existierte vor 10 Minuten vielleicht noch gar nicht
![]()
Schauen wir uns gezielt die KI-generierten Lebensläufe an, mit denen Recruiting-Teams heute konfrontiert sind – denn hier begegnen die meisten Unternehmen dem Problem zum ersten Mal und unterschätzen dabei konsequent das Ausmaß.
Das größte Risiko bei KI-generierten Lebensläufen im Recruiting: Diese Lebensläufe sind darauf ausgelegt, Filter zu bestehen – nicht echte Fähigkeiten zu belegen. Unternehmen, die sich stark auf KI-generierte Lebensläufe im Einstellungsprozess verlassen, übersehen oft entscheidende Authentizitätsprüfungen. Die heutigen KI-Lebenslauf-Generatoren korrigieren nicht nur die Grammatik – sie schreiben. Man füttert einen groben Entwurf des eigenen Werdegangs zusammen mit einer Stellenbeschreibung ein, und innerhalb von Sekunden hat man ein Dokument mit branchenspezifischen Erfolgen, glaubwürdigen Projektnamen, Kennzahlen und Fachvokabular. Es sieht aus, als hätte es ein erfahrener Profi mit genau dem gesuchten Hintergrund erstellt.
Diese KI-generierten Lebensläufe sind darauf optimiert, Bewerbermanagementsysteme (ATS) zu passieren. Solche Systeme suchen nach bestimmten Schlüsselwörtern und Mustern. Der Lebenslauf ist so geschrieben, dass er zuerst diese Filter überwindet – und erst danach die Augen des menschlichen Recruiters. Bis ein Recruiter ihn prüft, hat das System ihn bereits durch drei Screening-Stufen geschleust, sodass er völlig legitim aussieht.
Standardmäßige Hintergrundprüfungen erkennen überprüfbaren Betrug – etwa ob die genannten Unternehmen tatsächlich existieren. Aber keine Hintergrundprüfung kann KI-generierte Leistungen bei Positionen erkennen, die zwar technisch existierten, aber um 400 % aufgeblasen wurden. Genau in dieser Lücke operieren Fake-Bewerber-KI-Tools mit nahezu null Reibungsverlust.
Ihr Interviewer spricht vielleicht gerade mit einem Sprachmodell – mit leichter Verzögerung
In Kombination mit Fake-Bewerbern durch KI wird Interview-Betrug in Echtzeit deutlich schwerer zu erkennen. Das ist der Punkt, den Hiring Manager am schwierigsten akzeptieren können – aber die Belege werden zu deutlich, um sie zu ignorieren: Ein signifikanter und wachsender Anteil der Bewerber, die in technischen Remote-Interviews „gut abschneiden“, nutzt in Echtzeit KI-Unterstützung.
Am unteren Ende der Skala ist die Nutzung von KI in einem zweiten Tab für kleinere Hilfestellungen diskutabel. Am oberen Ende wird es eindeutig betrügerisch: Ein Ohrhörer, der KI-Antworten vorliest, oder Bildschirm-Overlays, die für den Interviewer unsichtbar sind und live generierte Antworten im Sichtfeld des Bewerbers anzeigen. Mehrere kommerzielle Tools vermarkten sich mittlerweile explizit für genau diesen Zweck. Sie transkribieren die Fragen, senden sie an ein Large Language Model und liefern innerhalb von Sekunden formatierte, souveräne Antworten zurück.
Der Betrug, der erst am ersten Arbeitstag beginnt
![]()
Der häufigste Betrug nach der Einstellung sind Geistermitarbeiter. Jemand wird eingestellt und delegiert die Arbeit sofort an einen unterbezahlten Freelancer von einer Plattform wie Upwork oder Fiverr. Die Person nimmt an Meetings teil, beantwortet Nachrichten und besteht Leistungsbewertungen, indem sie gerade so das Minimum liefert.
Man kassiert das volle Gehalt und behält die Differenz zwischen dem eigenen Gehalt und dem, was der Subunternehmer bereit ist zu akzeptieren. In einer vollständig remote arbeitenden Umgebung, in der nie physisch verifiziert wird, wer da eigentlich tippt, kann das endlos weitergehen. Monate. Manchmal über ein Jahr. Bis ein Sicherheitsvorfall, eine Kundenbeschwerde oder ein besonders aufmerksamer Manager am richtigen Faden zieht – und plötzlich bricht die ganze Fassade dieses vermeintlich großartigen Mitarbeiters in sich zusammen.
Ihre Onboarding-Checkliste, die 90-Tage-Review und der vierteljährliche OKR-Prozess erkennen keine Bewerber, die Interviews meistern, aber ihre Arbeit outsourcen. Sie brauchen eine zusätzliche Verifikationsebene – mit Fokus auf die Erkennung von Fake-Mitarbeitern ab dem ersten Tag. Ohne robuste Systeme zur Erkennung von Fake-Mitarbeitern bemerken Unternehmen Betrug oft erst Monate später.
WebWork: Die Verifikationsebene nach der Einstellung, die Ihnen fehlt
![]()
WebWork ist kein Überwachungstool – es fungiert als dedizierte Verifikationsebene nach der Einstellung. Es beantwortet die einzige Frage, die nach dem Hiring wirklich zählt: Erledigt der Mitarbeiter tatsächlich die Arbeit? Das Problem besteht nicht mehr nur darin, den richtigen Kandidaten einzustellen – sondern zu verifizieren, dass er die Arbeit auch wirklich selbst macht, nachdem er anfängt.
Wenn jemand Ihr Interview mit Bravour meistert, aber sein Verhalten im Arbeitsalltag eine komplett andere Geschichte erzählt, deckt WebWork diese Diskrepanz innerhalb der ersten Woche auf – nicht erst nach einem Quartal verpasster Deliverables, nicht erst nach einer Kundenbeschwerde. Innerhalb weniger Tage nach Arbeitsbeginn. In den meisten Fällen hilft WebWork dabei, Geistermitarbeiter und outgesourcte Arbeit bereits in der allerersten Woche zu erkennen.
Screenshot-Monitoring: Regelmäßige Screenshots zeigen exakt, was während der Arbeitszeit auf dem Bildschirm zu sehen ist – und entlarven outgesourcte Sitzungen oder inszenierte Setups sofort.
Aktivitätslevel: Die Bewertung von Tastatur- und Mausaktivität unterscheidet in Echtzeit echte Arbeit von einer Sitzung, die nur beschäftigt aussehen soll.
App- & URL-Tracking: Ein Entwickler, der nie eine IDE öffnet, ein Designer, der Figma nie anrührt – App-Nutzungsdaten melden solche Anomalien innerhalb von 48 Stunden nach Arbeitsbeginn.
Zeit pro Aufgabe: Aufgaben, die unrealistisch schnell erledigt werden, oder solche, die sich endlos hinziehen ohne Fortschritt – beides signalisiert, dass etwas nicht stimmt. Echte Arbeit hat eine erkennbare Zeitsignatur.
Die Daten, die WebWork generiert, dienen nicht der Überwachung um der Überwachung willen. Es geht um Mustererkennung. Ein echter Senior-Entwickler hat einen erkennbaren Verhaltens-Fingerabdruck – die Tools, die er nutzt, den Rhythmus seiner Arbeitssitzungen, die Zeit, die er mit Code Review vs. aktiver Entwicklung verbringt. Ein Geistermitarbeiter oder Subunternehmer zeigt ein völlig anderes Muster. WebWork macht diesen Unterschied sofort sichtbar – bevor Sie einen weiteren Sprint-Zyklus an jemanden verlieren, der nie wirklich da war. WebWork kombiniert leistungsstarke Funktionen wie Mitarbeiterüberwachungssoftware, einen Zeiterfasser mit Screenshots und umfassendes Remote-Mitarbeiter-Monitoring, um Unternehmen echte Transparenz über die Leistung ihrer Mitarbeiter zu geben.
So sieht eine betrügerische Einstellung in WebWork aus – Woche eins
Sie brauchen keine monatelange Datensammlung, um einen Geistermitarbeiter oder eine outgesourcte Einstellung zu identifizieren. Das Verhaltensmuster zeigt sich schnell. So sieht eine effektive Erkennung von Fake-Mitarbeitern aus, wenn man die richtigen Signale hat:
| Signal | Legitimer Mitarbeiter | Geister- / Betrügerischer Mitarbeiter |
| Aktivitätsmuster | Natürliche Aktiv-/Leerlauf-Zyklen mit menschlicher Variation | Ungewöhnlich gleichförmig oder skriptartig; kein organischer Rhythmus |
| App-Nutzung | Rollenspezifische Tools dominieren die Sitzung | Nur generische Tools; kritische Software wird kaum geöffnet |
| Screenshots | Passen zur angegebenen Arbeit – Projektdateien, relevanter Code | Unpassende Inhalte, inszenierte Setups, andere Person |
| Zeit pro Aufgabe | Angemessene Verteilung passend zu Schätzungen | Verdächtig schnell oder endlos schleppend ohne Output |
| Login-Muster | Konsistentes Gerät, Zeitzone, Arbeitszeiten | Mehrere Geräte, wechselnde Standorte, ungewöhnliche Uhrzeiten |
Die Lücken schließen, die KI-Betrug ausnutzt
Man kann ein Problem von 2025 nicht mit einem Recruiting-Prozess von 2018 lösen. So bauen Sie einen betrugsresistenten Ansatz über den gesamten Prozess hinweg auf.
Vor dem Interview: Setzen Sie auf asynchrone, aufgezeichnete Kompetenzprüfungen, bei denen der Bewerber eine Live-Aufgabe ohne Hilfe bearbeiten muss. Das bedeutet: Die Arbeit wird per Bildschirmaufzeichnung mit eingeschalteter Kamera eingereicht. Eine 90-minütige praxisnahe Aufgabe ist deutlich schwerer zu fälschen als ein Lebenslauf oder eine Interview-Antwort. In Kombination mit Fake-Bewerbern durch KI wird Interview-Betrug in Echtzeit noch schwerer zu erkennen.
Während des Interviews: Formulieren Sie Fragen, die auf den tatsächlichen Denkprozess des Bewerbers abzielen – nicht nur auf die Antwort. Bitten Sie den Kandidaten, seinen Gedankengang zur Lösung zu beschreiben, oder fragen Sie nach Situationen, in denen etwas schiefgelaufen ist. Einer KI kann man beibringen, die richtige Antwort zu liefern – aber nicht, die gelebte Erfahrung zu beschreiben, ein solches Problem tatsächlich schon einmal gelöst zu haben.
Beim Onboarding: Kommunizieren Sie ab dem ersten Tag klar, dass Ihr Unternehmen Mitarbeiterüberwachungssoftware als Standardpraxis einsetzt. Legitime Mitarbeiter werden nicht mit der Wimper zucken. Betrügerische ziehen sich in dieser Phase manchmal still zurück – und genau das ist ein völlig akzeptables Ergebnis.
In den ersten 30 Tagen: Hier liefert WebWork den größten Mehrwert. Mit aktivem Remote-Mitarbeiter-Monitoring ab dem ersten Tag warten Sie nicht 90 Tage auf eine Leistungsbewertung, um etwas zu erfahren, was Ihnen die Aktivitätsdaten schon in Woche zwei verraten hätten.
Die Einstellung ist nur Schritt eins. Die Verifizierung ist die eigentliche Aufgabe.
Wenn Gartner davon spricht, dass bis 2028 rund ein Viertel aller Bewerberprofile in signifikanter Weise gefälscht sein wird, dann ist das keine dystopische Zukunftsvision. Es ist eine Zukunft, die bereits begonnen hat. Die Technologie für solche Betrugsmaschen ist bereits günstig, allgegenwärtig und entwickelt sich schneller weiter, als die meisten Recruiting-Prozesse mithalten können.
Wir haben Jahrzehnte damit verbracht, die Kunst des Einstellens zu perfektionieren – durch bessere Stellenausschreibungen, bessere Bewerbermanagementsysteme und ausgeklügeltere Interviewmethoden. In die Verifizierung wurde dagegen so gut wie nichts investiert. Das war nachvollziehbar, als alle im Büro arbeiteten und man mit einem Blick durch den Raum sicherstellen konnte, dass alle tatsächlich arbeiten. Heute ist das nicht mehr der Fall.
Remote Work ist für einen erheblichen Teil der Wissensarbeiter gekommen, um zu bleiben. Gleichzeitig wird KI-gestützter Betrug immer ausgefeilter und erschwinglicher. Das stellt Unternehmen, die stark auf Remote-Hiring setzen, vor wachsende Herausforderungen.
Die Lösung besteht nicht darin, Mitarbeiter zurück ins Büro zu zwingen oder jeden Neuzugang wie einen Verdächtigen zu behandeln. Stattdessen müssen Unternehmen Verifizierung direkt in ihre Einstellungsprozesse integrieren – mit den richtigen Tools, klaren Richtlinien und belastbaren Daten, auf deren Basis sie handeln können.
Von Fake-Bewerbern durch KI über KI-generierte Lebensläufe im Recruiting bis hin zum wachsenden Bedarf an der Erkennung von Fake-Mitarbeitern – die Recruiting-Landschaft befindet sich in einem massiven Umbruch.
WebWorks Zeiterfasser mit Screenshots liefert Ihnen diese Daten ab dem ersten Tag. Ob jemand wirklich herausragend in seinem Job ist oder nur herausragend darin, so zu tun als ob – Sie werden den Unterschied innerhalb einer Woche kennen. Das ist keine Überwachung. Das ist schlicht die Führung eines Unternehmens, das den Unterschied zwischen einem echten Mitarbeiter und einem sehr teuren Hochstapler erkennen kann. Wenn Sie remote einstellen, ist eine Verifikationsebene wie WebWork keine Option mehr – sie ist essenziell, um Ihr Unternehmen vor modernem Bewerbungsbetrug zu schützen.