Microsoft si impegna costantemente per proteggere le proprie piattaforme e i propri clienti da abusi e frodi. Dalla prevenzione delle attività fraudolente su Azure all'integrazione di misure di sicurezza contro le frodi in Edge, fino alla lotta contro le truffe di supporto tecnico tramite nuove funzionalità in Windows Quick Assist, l'ultima edizione di Cyber Signals offre approfondimenti dettagliati su queste iniziative e presenta i risultati ottenuti finora per la protezione dei clienti.

Questo articolo è una traduzione di un post del Microsoft Security Blog, che potete leggere in originale qui: Cyber Signals Issue 9 | AI-powered deception: Emerging fraud threats and countermeasures | Microsoft Security Blog. La difesa è un impegno collettivo, e Microsoft lavora instancabilmente per rafforzare le proprie difese digitali e quelle dei suoi utenti di fronte a un panorama di minacce in continua evoluzione.

Tra aprile 2024 e aprile 2025, Microsoft ha ottenuto risultati significativi nella sua lotta contro le frodi digitali, dimostrando l'efficacia dei suoi sistemi di difesa avanzati. Nello specifico, l'azienda ha:

Questi numeri evidenziano la portata e la persistenza delle minacce cyber e l'impegno massiccio di Microsoft per neutralizzarle, proteggendo così la sicurezza e la fiducia dei suoi milioni di utenti e partner in tutto il mondo.

L'evoluzione delle frodi su internet supportate dall'IA

L'intelligenza artificiale (IA) sta rendendo sempre più semplice per i cybercriminali lo sviluppo di veri e propri "strumenti di produttività" per le loro attività illecite. Questa tecnologia permette di creare contenuti dall'aspetto ingannevolmente autentico per sferrare attacchi a una velocità sempre crescente. Per raggiungere i loro scopi, i malintenzionati utilizzano sia app legittime che vengono abusate per fini malevoli, sia strumenti appositamente sviluppati che circolano negli ambienti del cybercrime, il che rende il rilevamento e la prevenzione delle frodi una sfida complessa e dinamica.

Gli strumenti di IA scansionano e analizzano in modo mirato il web alla ricerca di informazioni aziendali, consentendo agli aggressori di creare profili dettagliati di dipendenti o altre persone bersaglio. Queste informazioni dettagliate costituiscono la base per sofisticati attacchi di social engineering. In alcuni casi, i criminali attirano le loro vittime in schemi fraudolenti sempre più complessi, ad esempio attraverso recensioni di prodotti false generate dall'IA e negozi online creati con l'IA. I truffatori creano siti web completi e marchi di e-commerce, inclusi storie aziendali inventate e recensioni di clienti. Utilizzando deepfake, clonazione vocale, e-mail di phishing e siti web falsi dall'aspetto ingannevolmente reale, gli aggressori si spacciano su larga scala per fornitori affidabili, rendendo estremamente difficile per i consumatori distinguere il vero dal falso.

Secondo il team Anti-Frode di Microsoft, gli attacchi fraudolenti basati sull'IA si verificano a livello globale, con una gran parte delle attività registrate in Cina e in Europa, in particolare in Germania. Una delle ragioni di questa concentrazione è che la Germania è uno dei maggiori mercati per l'e-commerce e i servizi online all'interno dell'Unione Europea. Maggiore è la dimensione del mercato digitale in una regione, più alto è il rischio di tentativi di frode, data la vasta base di utenti e le opportunità che essa presenta per i malintenzionati, che cercano costantemente di sfruttare le vulnerabilità del sistema.

Frodi nel commercio online

Oggi, siti web di e-commerce dall'aspetto ingannevolmente reale possono essere creati in pochi minuti utilizzando l'IA e altri strumenti, richiedendo conoscenze tecniche minime. Ciò che in passato richiedeva giorni o addirittura settimane, ora gli aggressori riescono a farlo in un attimo, spesso con risultati professionali. Le pagine false spesso assomigliano molto a quelle di fornitori legittimi, sia per grafica che per struttura, rendendo estremamente difficile per i consumatori riconoscerle come contraffazioni e cadere nella trappola di acquisti inesistenti o prodotti contraffatti.

Descrizioni di prodotti, immagini e recensioni dei clienti generate dall'IA fanno sì che i consumatori credano di acquistare da un rivenditore autentico. I criminali sfruttano in modo mirato la fiducia riposta nei marchi noti e la credulità degli utenti. I chatbot di servizio clienti guidati dall'IA offrono ai truffatori un'ulteriore opportunità di apparire ingannevolmente autentici. Questi bot possono tenere in sospeso le vittime, ad esempio in caso di storni di addebito, e creare l'impressione di un fornitore affidabile con scuse pretestuose, anche se dietro si nasconde un sito web fraudolento, rendendo il processo di recupero dei fondi o di risoluzione dei problemi ancora più complicato e frustrante per le vittime.

Microsoft adotta un approccio olistico per proteggere i propri clienti dalle frodi basate sull'IA, integrando robusti meccanismi di protezione direttamente nei prodotti e nei servizi. Ad esempio, il Microsoft Defender for Cloud offre una protezione completa dalle minacce per le risorse Azure, inclusi analisi delle vulnerabilità, rilevamento delle minacce e protezione per macchine virtuali, immagini di container ed endpoint. Questo strumento è fondamentale per salvaguardare l'infrastruttura cloud dei clienti da una vasta gamma di attacchi, compresi quelli sempre più sofisticati che sfruttano l'intelligenza artificiale per eludere le difese tradizionali.

Microsoft Edge protegge attivamente gli utenti dai siti web fraudolenti, ad esempio tramite un rilevamento degli errori di battitura negli indirizzi web e un rilevamento dell'imitazione di dominio basato sulla tecnologia di deep learning. Inoltre, entra in gioco la protezione integrata dello Scareware Blocker in Edge. Questo strumento, basato sull'apprendimento automatico, identifica e blocca potenziali siti di frode e finestre pop-up ingannevoli con avvisi allarmanti che fingono che il computer sia compromesso. L'obiettivo di tali attacchi è seminare il panico e indurre le vittime a chiamare numeri di supporto fraudolenti o a scaricare software pericolosi, sfruttando la paura e l'incertezza per estorcere denaro o installare malware. L'integrazione di queste funzionalità direttamente nel browser offre un primo strato di difesa essenziale per gli utenti.

Frodi con offerte di lavoro

Grazie ai rapidi progressi dell'IA generativa, è diventato molto più facile per i truffatori creare annunci di lavoro falsi e campagne di reclutamento ingannevoli. Utilizzano dati rubati per profili fittizi, pubblicano annunci di lavoro generati automaticamente e avviano campagne e-mail guidate dall'IA per ingannare i candidati tramite phishing. Anche i colloqui di lavoro e i feedback vengono ormai simulati dall'IA, utilizzando bot conversazionali che imitano interazioni umane. Ciò rende più difficile per i candidati distinguere le offerte reali dalle frodi, che spesso promettono guadagni facili o posizioni prestigiose senza richiedere qualifiche adeguate.

Per arginare tali tentativi di frode, le piattaforme di lavoro dovrebbero rendere obbligatoria l'autenticazione a più fattori (MFA) per gli account dei datori di lavoro. Questo impedirebbe che annunci legittimi vengano "dirottati" da terzi malintenzionati. Inoltre, dovrebbero essere impiegate le tecnologie disponibili per il rilevamento delle frodi al fine di identificare i contenuti sospetti in una fase precoce, prima che possano raggiungere un numero elevato di potenziali vittime. I truffatori spesso richiedono dati personali come curriculum vitae o persino coordinate bancarie, presumibilmente per la verifica della candidatura. Un altro segnale di avvertimento sono gli SMS o le e-mail inaspettate che promettono offerte di lavoro lucrative per qualifiche minime, spesso con la richiesta di un "investimento iniziale" o di acquisto di materiali. Anche gli annunci di lavoro che richiedono pagamenti, che "sembrano troppo belli per essere veri", inviati tramite SMS senza preavviso o che invitano a colloqui attraverso canali non ufficiali, dovrebbero destare scetticismo, soprattutto se mancano i canali di comunicazione formali e verificabili con l'azienda in questione.

I truffatori del supporto tecnico si affidano all'IA

Nei casi di frode di supporto tecnico, i truffatori inducono le vittime a usufruire di servizi di supporto tecnico non necessari per risolvere problemi di dispositivo o software che non esistono. Nei casi di frode nel supporto tecnico, esiste un rischio elevato, anche quando l'IA non gioca un ruolo diretto. Ad esempio, a metà aprile 2024, Microsoft Threat Intelligence ha rilevato che il gruppo di cybercriminali specializzato in ransomware, Storm-1811, ha tentato di abusare dello strumento remoto di Microsoft, Quick Assist, spacciandosi per supporto IT. Quick Assist consente agli utenti di condividere il proprio dispositivo Windows o macOS in remoto. Microsoft non ha potuto stabilire che l'IA fosse utilizzata in questi attacchi. Invece, Storm-1811 si è spacciato per un'organizzazione legittima tramite voice-phishing (vishing), una forma di social engineering, e ha convinto le vittime a concedere loro l'accesso al proprio dispositivo tramite Quick Assist, mettendo a rischio i loro dati personali e la sicurezza dei loro sistemi.

Nel successivo maggio 2024, Microsoft Threat Intelligence ha anche osservato che il gruppo Storm-1811 ha utilizzato Microsoft Teams per attacchi di vishing. In questi casi, le persone bersaglio vengono contattate telefonicamente o tramite messaggi vocali, spesso con urgenza simulata, per indurle a rivelare informazioni sensibili o a concedere accesso remoto. In risposta alle attività di Storm-1811 e gruppi simili, Microsoft ha adottato misure mirate, come il blocco di account sospetti associati a comportamenti illeciti, rafforzando ulteriormente le sue difese e la protezione degli utenti attraverso monitoraggio continuo e interventi rapidi per neutralizzare le minacce.

In linea di principio, chiunque offra supporto tecnico non richiesto agisce nella maggior parte dei casi in modo fraudolento. Se qualcuno si spaccia per un dipendente Microsoft, potete segnalare l'incidente all'indirizzo https://www.microsoft.com/reportascam. È fondamentale rimanere vigili e scettici di fronte a tali richieste inattese, poiché la prevenzione e la segnalazione sono strumenti essenziali per contrastare l'avanzare di queste minacce, che continuano a evolversi con l'adozione di nuove tecnologie.

Utilizzando una varietà di strumenti e tecniche, questi aggressori cercano informazioni aziendali su internet, creano profili dettagliati dei dipendenti e sviluppano esche di social engineering estremamente convincenti, diffuse tramite e-mail, messaggi di testo o altri canali. La capacità dell'IA di generare contenuti iperrealistici e personalizzati rende queste minacce ancora più insidiose, sottolineando la necessità di una consapevolezza continua e di robuste strategie di difesa da parte di utenti e aziende per navigare in sicurezza nel panorama digitale attuale.