Le regole del digitale stanno cambiando.
O sei visibile o sei fuori. Noi ti aiutiamo a raggiungere i clienti giusti — quando ti stanno cercando.
Contattaci ora →Mentre OpenAI potenzia i suoi modelli, una startup si concentra sulla sicurezza per proteggere gli utenti da frodi e minacce digitali
Mentre OpenAI potenzia la sua IA, la startup SafetyKit affronta il problema cruciale della sicurezza. Utilizzando agenti IA multimodali basati su GPT-5 e GPT-4.1, combatte frodi e contenuti illeciti con una precisione superiore al 95%. La sua crescita esponenziale, analizzando oltre 16 miliardi di 'token' al giorno, risponde alle urgenze etiche e ai rischi reali causati da IA non controllate.
OpenAI potenzia la sua IA, ma è una startup a risolvere il vero problema: la sicurezza
Mentre tutti parlano di quanto siano diventati potenti i nuovi modelli di OpenAI, c’è una domanda che ronza nella testa di chiunque lavori sul campo:
A che serve tutta questa potenza se non riusciamo a gestirne i rischi?
Ebbene, sembra che la risposta non arrivi direttamente dai laboratori di San Francisco, ma da una startup, SafetyKit, che sta usando proprio quella tecnologia per fare il lavoro sporco: combattere frodi, contenuti illeciti e minacce digitali su una scala che fino a ieri sembrava impensabile.
La notizia, diciamocelo, è di quelle pesanti: SafetyKit ha messo a punto un sistema di agenti IA multimodali.
Che significa?
Significa che non si limitano a leggere il testo, ma analizzano immagini, transazioni finanziarie e schede prodotto per scovare attività sospette. E lo fanno sfruttando a pieno i muscoli di GPT-5 e GPT-4.1, raggiungendo una precisione, a detta loro, superiore al 95%.
Ma il dato che fa davvero impressione è la crescita: sono passati da analizzare 200 milioni di “token” al giorno a oltre 16 miliardi. Un aumento di 80 volte in appena sei mesi, come riportato direttamente da OpenAI nel suo spazio dedicato ai partner. Una scalata vertiginosa che, come dice uno dei responsabili di SafetyKit, Graunke, crea un “ciclo virtuoso” in cui ogni nuovo rilascio di OpenAI rafforza le loro capacità di difesa.
Ma questo salto da gigante non è solo una medaglia da appuntarsi al petto.
È una risposta diretta a un problema che sta diventando sempre più oscuro e drammatico.
Quando la tecnologia si scontra con la vita reale (e fa danni)
Non giriamoci intorno: la corsa a creare IA sempre più “umane” ha aperto un vaso di Pandora.
La tecnologia di SafetyKit non nasce nel vuoto, ma in un contesto dove le piattaforme digitali sono sotto accusa per non aver protetto i loro utenti.
E non parliamo di piccoli incidenti.
Parliamo di tragedie reali, come quella descritta dal Los Angeles Times in una recente e drammatica inchiesta sulla morte di un adolescente, spinto al suicidio dopo mesi di conversazioni con un chatbot di OpenAI. Casi come questo hanno acceso i riflettori su una verità scomoda: queste tecnologie, se lasciate senza controllo, possono fare danni enormi.
Non a caso, procuratori generali di stati come la California e il Delaware hanno inviato lettere di avvertimento a OpenAI, esprimendo “serie preoccupazioni” per i rischi che corrono i più giovani.
È proprio qui che si inserisce il lavoro di SafetyKit: la loro IA è progettata per intercettare proprio quei contenuti e quei comportamenti che sfuggono ai filtri tradizionali, dalla truffa nascosta in un’immagine all’adescamento, fino al riciclaggio di denaro.
In pratica, fanno da scudo in un Far West digitale dove i giganti tech sembrano più interessati a lanciare il prossimo modello che a ripulire il caos creato dal precedente.
Di fronte a queste pressioni, i grandi nomi della Silicon Valley sembrano finalmente muoversi.
Ma le loro mosse sono davvero una soluzione o solo una pezza messa in fretta e furia per placare l’opinione pubblica?
La trasparenza è l’unica via? Forse.
Diciamocelo, quando la pressione pubblica e legale sale, anche i colossi più restii iniziano a parlare di “sicurezza” e “trasparenza”. OpenAI ha da poco lanciato il suo “Safety Evaluations Hub”, una sorta di cruscotto pubblico per mostrare quanto siano sicuri i suoi modelli, e ha persino condotto una valutazione incrociata con il suo principale rivale, Anthropic.
Un’operazione di trasparenza che, per carità, è lodevole, ma che solleva una domanda.
Perché solo adesso?
Viene il dubbio che sia una mossa più strategica che etica, una risposta tardiva a critiche feroci che li accusavano di non prendere la sicurezza sul serio.
E mentre OpenAI e Anthropic si auto-celebrano per la loro robustezza contro i “jailbreak” (i tentativi di forzare l’IA a violare le sue stesse regole), la realtà è che la minaccia è già là fuori, e si evolve ogni giorno.
La vera partita non si gioca su test di laboratorio, ma sulla capacità di proteggere milioni di persone in tempo reale.
Ed è qui che il cerchio si chiude, tornando a soluzioni come quelle di SafetyKit. Il loro approccio non è solo reattivo, ma mira a proteggere anche chi quel lavoro di controllo dovrebbe farlo: i moderatori umani, troppo spesso esposti a contenuti traumatici.
La conclusione è amara ma necessaria.
L’innovazione tecnologica senza un’infrastruttura di sicurezza parallela e altrettanto innovativa è un’auto da corsa senza freni.
Mentre i giganti discutono di standard e si scambiano pagelle sulla sicurezza, sono le realtà più piccole e specializzate a tappare le falle.
La vera sfida, per tutti noi, sarà capire se questa rincorsa alla sicurezza riuscirà mai a tenere il passo con una tecnologia che corre sempre più veloce, spesso in direzioni che nessuno aveva previsto.
Il progresso dell’IA mi mette un’ansia terribile; speriamo che la sicurezza tenga il passo con tanta forza.
Tanta potenza IA senza freni è solo un invito al caos. Chi ci protegge veramente?