«No, non abbiamo intenzione di fare causa a DeepSeek in questo momento». In un’intervista ai media giapponesi, il 39enne Ceo di OpenAI Sam Altman smentisce le voci di una possibile causa per violazione del diritto d’autore contro il rivale cinese DeepSeek (qui spieghiamo cos’è e perché ha creato un terremoto in Silicon Valley). La controversia riguarda una tecnica nota come “distillazione“, alla base del chatbot DeepSeek-V3, che utilizzerebbe dati presi da ChatGpt e altri modelli di OpenAI.
La rivalità con DeepSeek – Dopo aver denunciato la scorsa settimana che le aziende cinesi copiavano i suoi modelli avanzati di intelligenza artificiale generativa, Sam Altman ha rinunciato, per il momento, ad azioni legali contro l’azienda cinese DeepSeek. «Continueremo a costruire grandi prodotti e a guidare il mondo con la capacità dei modelli, e credo che andrà tutto bene», ha dichiarato con ottimismo, lodando la capacità tecnologica mostrata dal concorrente. L’imprenditore ha mostrato aperture sulla questione dell’open source, una delle differenze strutturali tra i due modelli di intelligenza artificiale. DeepSeek ha infatti una struttura aperta, che permette agli sviluppatori di scaricarla gratuitamente, modificarne il funzionamento e adattarla a differenti utilizzi. Un altro colosso che ha deciso di puntare sull’open source è Meta. OpenAI utilizza invece codici chiusi e protetti dal diritto d’autore. «Personalmente, penso che siamo stati dalla parte sbagliata della storia e che dobbiamo trovare una strategia diversa quando si tratta di open source», ha commentato su un forum di Reddit. Rispondendo agli utenti che chiedevano di divulgare i parametri di alcuni modelli, Altman ha poi dichiarato: «Ne stiamo discutendo. Non tutti in OpenAI condividono questo punto di vista e non è neanche la nostra massima priorità al momento».
La “distillazione” – La tecnica nota come “distillazione della conoscenza” è al centro delle controversie legali e tecnologiche tra le due aziende. Alla base del chatbot DeepSeek-V3, l’algoritmo di apprendimento permette di trasferire conoscenze da un modello di grandi dimensioni, detto “insegnante”, a uno più piccolo e più efficiente, lo “studente”. Nel processo si ottengono prestazioni simili ma impiegando una potenza computazionale molto inferiore. Il modello studente infatti non apprende solo dai dati originali, ma anche dalle più ricche elaborazioni già create dell’insegnante ottenendo un addstramento più leggero e veloce, senza perdere troppa accuratezza. Secondo i primi studi, sarebbe stata proprio questa tecnologia a permette ai cinesi di creare una IA dalle prestazioni paragonabili ai modelli occidentali ma a una frazione del loro costo.