Il panorama dell'intelligenza artificiale (IA) è in costante e rapida evoluzione, con i Large Language Models (LLM) che si affermano come strumenti fondamentali per la digitalizzazione. Questi modelli, capaci di elaborare e generare linguaggio naturale, stanno ridefinendo settori interi, dalla creazione di contenuti alla comunicazione aziendale. Tuttavia, l'innovazione porta con sé nuove sfide, sia tecniche che etiche, come dimostrato dai recenti sviluppi e dalle accese discussioni che animano il dibattito pubblico.

Introduzione: L'onda d'urto dei Large Language Models

I modelli di linguaggio su larga scala, o LLM, sono al centro dell'attenzione globale. Questi strumenti di intelligenza artificiale stanno plasmando il futuro della digitalizzazione, offrendo capacità senza precedenti nella comprensione e generazione del linguaggio. In questo contesto dinamico, OpenAI ha recentemente rilasciato ChatGPT-4o (che si pronuncia "quattro, o"), un evento che ha subito catturato l'attenzione per le sue impressionanti capacità e, inaspettatamente, per le sue strane parallelismi con il film "Lei" del 2013.

ChatGPT-4o e la "voce" della polemica

Il film "Lei" (Her), uscito nel 2013, vedeva la superstar di Hollywood Scarlett Johansson dare la voce a un'assistente artificiale che sviluppa una relazione con il personaggio principale interpretato da Joaquin Phoenix. Questo scenario, apparentemente fantascientifico, ha trovato un'eco sorprendente nella realtà con il lancio di ChatGPT-4o. Sembra che il fondatore di OpenAI, Sam Altman, avesse pensato a qualcosa di simile, tanto da aver chiesto a Johansson nel 2023 di prestare la propria voce alla nuova assistente IA. Tuttavia, l'attrice ha rifiutato.

OpenAI ha quindi incaricato un'attrice meno conosciuta con una voce simile. Nonostante ciò, OpenAI potrebbe trovarsi di fronte a una nuova potenziale causa legale, dopo la disputa con il New York Times. In California, sede di OpenAI e luogo di residenza di Johansson, l'uso non autorizzato dei diritti di personalità è regolamentato in modo particolarmente severo. Se Johansson decidesse di perseguire la questione, potrebbe non solo ottenere milioni in un accordo, ma anche fare un enorme favore ai suoi colleghi attori e a tutti i creatori di contenuti. Chi crea contenuti e, in un certo senso, chi è egli stesso un contenuto creativo, dovrebbe iniziare a preoccuparsi per la propria rilevanza se tali pratiche dovessero diffondersi incontrastate.

Al di là delle questioni legali e d'immagine, non dobbiamo trascurare l'aspetto tecnico. GPT-4o sta alimentando la tendenza verso gli assistenti vocali, un settore che finora era rimasto in un limbo tra gli smart speaker e gli scandali sulle intercettazioni di Amazon. Le preoccupazioni sulla privacy rimangono, ma se gli utenti dovessero adottare questa offerta più di tutte le precedenti – forse perché ora non siamo solo amici, ma potenzialmente anche partner di flirt – questo avrebbe significative implicazioni per le aziende.

A livello globale, ChatGPT elabora circa 2,5 miliardi di richieste al giorno, una cifra che sottolinea l'enorme impatto e la diffusione di questi modelli.

Un panorama in evoluzione: i principali LLM a confronto

I grandi modelli di linguaggio, noti anche come Large Language Models (LLM), stanno assumendo un ruolo sempre più centrale nella tecnologia odierna. Molte aziende stanno sviluppando le proprie versioni, ciascuna con punti di forza distintivi. Questi modelli dimostrano la versatilità della tecnologia IA, che può essere impiegata per una vasta gamma di applicazioni, dalla creazione di contenuti creativi al supporto scientifico. Tuttavia, nonostante i loro vantaggi, presentano anche sfide, in particolare per quanto riguarda la protezione dei dati e l'uso etico.

Le peculiarità dei giganti dell'IA

Ecco un rapido confronto tra alcuni dei principali LLM e le loro caratteristiche distintive:

  • OpenAI GPT-4: È riconosciuto per la sua elaborazione linguistica avanzata ed è il modello linguistico IA più utilizzato a livello mondiale.
  • Google Gemini AI: Sviluppato per consentire una comunicazione fluida tra macchine, offre un'ampia capacità di cattura del contesto.
  • DeepL: Famoso per le sue traduzioni precise, sta espandendo le sue funzionalità all'adattamento di contenuti marketing e social media.
  • Claude AI (sviluppato da Anthropic): Si distingue per le sue interazioni empatiche e le risposte contestualmente rilevanti.
  • Perplexity AI: Ideale per lavori accademici grazie alla sua accuratezza scientifica e alle citazioni delle fonti.

Ora, esaminiamo i risultati dei test per confrontare quale modello linguistico IA sia attualmente il migliore sul mercato e come le nuove tendenze stiano ridefinendo il settore.

Oltre la voce: l'IA nel quotidiano aziendale e i nuovi PC Copilot+

L'integrazione dell'intelligenza artificiale nel business quotidiano sta gradualmente chiarendo come possa essere utilizzata per creare contenuti pertinenti o almeno per assistervi. Allo stesso tempo, Microsoft sta per lanciare, a partire da giugno e in collaborazione con i suoi partner hardware – Acer, ASUS, Dell, HP, Lenovo e Samsung – un nuovo PC dedicato al Copilot IA: il Copilot+ PC.

Il Copilot+ PC: innovazione, dati e privacy

Mentre la promozione si concentra principalmente su una maggiore sicurezza e sulla possibilità di utilizzare contemporaneamente sia Large Language Models generali che Small Language Models specifici, per Microsoft un punto cruciale sarà l'accesso a dati e statistiche di utilizzo che vanno oltre le proprie applicazioni. La funzione Recall, in particolare, permetterà agli utenti di ritrovare tutte le informazioni che hanno richiamato su un Copilot+ PC. Questo, da un lato, è davvero pratico; dall'altro, offre una visione profonda sui processi lavorativi, sui segreti aziendali e sulla privacy.

Forse, prima di ordinare il nuovo hardware, sarebbe opportuno avere una discussione aperta con i colleghi per capire se questo sia davvero (già) desiderato. È anche chiaro che il comportamento degli utenti nei confronti delle applicazioni digitali sta cambiando a una velocità vertiginosa: più l'offerta è semplice e utile, più bassa è la soglia di consenso all'utilizzo dei dati.

DeepL: dall'accuratezza linguistica al supporto marketing strategico

Tra le aziende che stanno rivoluzionando l'applicazione dell'IA nel business, l'azienda di Colonia DeepL si sta distinguendo. Il suo assistente di traduzione, già rinomato per la sua precisione, ora viene promosso per la sua capacità di adattare contenuti marketing e social media per diverse piattaforme e pubblici di riferimento. In combinazione con software di fotoritocco supportati dall'IA come Canva o Adobe, questo rappresenta un enorme sollievo per i team di marketing e social media.

Il vantaggio competitivo di un pioniere europeo

Non è chiaro se i recenti investimenti di 300 milioni di dollari e una valutazione aziendale di 2 miliardi siano stati destinati specificamente a questa nuova funzionalità. Tuttavia, lo scale-up tedesco gode di un vantaggio decisivo rispetto ai fornitori europei, spesso più piccoli e meno finanziati: è sul mercato con il suo traduttore DeepL dal 2017. È conforme alla protezione dei dati (a condizione che gli utenti si comportino di conseguenza) ed è fornitore per oltre 900 aziende.

DeepL dovrebbe quindi aver superato le principali difficoltà nella costruzione del proprio Large Language Model e aver accumulato una enorme esperienza in termini di metadati sull'interazione degli utenti. A questo si aggiungono gli effetti di apprendimento derivanti dalle correzioni manuali degli utenti sulle traduzioni automatiche. Ora, la sfida principale sarà quella di distinguersi dagli altri fornitori, alcuni dei quali dispongono di fondi per la ricerca e la pubblicità decisamente maggiori. DeepL deve vendere un vantaggio specifico che vada oltre il tema delle traduzioni, che ormai molti fornitori coprono bene. L'obiettivo è chiaro: trarre profitto, soprattutto dai clienti aziendali.

Oltre all'attenzione sulla protezione dei dati (almeno se i dipendenti non condividono informazioni sensibili) e sulla sicurezza IT, DeepL sta lavorando anche a soluzioni per l'utilizzo collaborativo in team. Questo approccio strategico mira a consolidare la sua posizione come partner affidabile per le imprese che desiderano sfruttare il potenziale dell'IA nel rispetto delle normative.

La frontiera della sicurezza e l'emergere dei Large Action Models

Quanto sia complicato offrire un'IA veramente sicura è oggetto di ricerca, anche presso l'Università di Vienna. Recentemente, durante una serata di networking organizzata da Women4Cyber e She@ISACA, ho avuto modo di apprendere quanto sia facile estrarre i dati di addestramento da un'IA, anche quando gli sviluppatori hanno implementato le prime barriere di sicurezza. Attraverso l'inserimento di semplici comandi "non autorizzati", non solo è possibile estrarre informazioni, ma anche manipolare gli output. Questo significa che si possono alterare anche i processi che un assistente IA dovrebbe eseguire in modo affidabile.

Rischi e opportunità dei modelli d'azione

Quando non avremo più a che fare solo con Large Language Models, ma con Large Action Models (LAM), la situazione diventerà veramente pericolosa. Non si tratterà più solo di informazioni e di collaborazione uomo-macchina, ma di compiti complessi che la macchina deriva dai dati di interazione umana e assume in modo autonomo. Non sarà più necessario un comando esplicito per iniziare l'esecuzione; basterà l'intenzione. Questo solleva questioni profonde sulla responsabilità, il controllo e l'etica.

Google, in particolare, sembra essere molto intensa nel suo percorso verso i Large Action Models. Sebbene il suo LLM interno, Gemini, abbia ancora problemi contestuali (ad esempio, raccomanda di tenere la mozzarella per pizza con colla sull'impasto), la pagina informativa di Gemini si concentra maggiormente sulla comunicazione machine-to-machine. Ciò indica una visione a lungo termine in cui le macchine non solo comprendono e generano linguaggio, ma anche agiscono in modo proattivo e autonomo. Questa evoluzione, sebbene promettente per l'automazione e l'efficienza, richiede una riflessione attenta sulle sue implicazioni sociali, economiche e di sicurezza.

Il futuro è autonomo: la visione di Google e le sfide etiche

La transizione verso i Large Action Models rappresenta la prossima grande frontiera dell'IA. L'idea che un sistema possa non solo interpretare un comando, ma anche dedurre un'intenzione e agire di conseguenza senza un input esplicito, è tanto rivoluzionaria quanto inquietante. Le implicazioni per l'industria, per la sicurezza nazionale e per la vita quotidiana sono immense. La capacità di manipolare i processi attraverso un'IA che agisce autonomamente potrebbe avere conseguenze imprevedibili, rendendo la ricerca sulla sicurezza e sull'etica ancora più critica.

Mentre i giganti tecnologici come Google e OpenAI continuano a spingere i confini dell'innovazione, è fondamentale che il dibattito pubblico e la regolamentazione tengano il passo. Solo attraverso un equilibrio tra progresso tecnologico e consapevolezza etica potremo garantire che l'IA sia uno strumento per il benessere e il progresso umano, e non una fonte di nuovi, incontrollabili rischi. La corsa per la supremazia negli LLM e nei futuri LAM è ben lontana dalla conclusione, e le prossime tappe promettono di essere tanto entusiasmanti quanto impegnative.