L’IA è inarrestabile in ogni modo, ma non può essere lasciata sola, poiché è molto pericolosa e, soprattutto, può commettere errori molto gravi. ChatGPT, come modello linguistico, ha i suoi punti deboli, che NVIDIA ha già visto, e per questo motivo Huang si è lanciato per cercare di “mettere in pista la propria IA”. Per questo hanno sviluppato una sorta di strumento software chiamato Guardrail NeMO il che è piuttosto interessante, perché secondo i verdi l’IA “allucina” a volte.
ChatGPT è sempre sulla bocca di tutti, è oggetto di studio in molti paesi e continenti perché rappresenta un rischio per la privacy, la sicurezza e, soprattutto, per l’informazione stessa. Ed è che, a quanto pare, NVIDIA è stata in grado di controllare e assistere ai fallimenti di questa IA, poiché sono le loro GPU che addestrano e deducono gli LLM, sanno dove migliorare.
NVIDIA vede difetti in ChatGPT e mira a limitare l’inferenza dell’IA
L’IA di OpenAI non è perfetta, tutt’altro, ha ancora molta strada da fare, ma per andare avanti bisogna anche vedere dove fallisce. I verdi hanno visto che quando a ChatGPT viene chiesto un argomento o qualcosa semplicemente inesistente, l’IA a causa dei suoi parametri di allenamento ed essendo un LLM non può fornire risposte accurate.
In effetti, NVIDIA si riferisce a questi problemi, a queste risposte, come a un “viaggio sul piatto” dell’IA. In particolare, si parla che ChatGPT ne risenta”allucinazioni” e le risposte iniziano quindi a essere non plausibili, poiché ciò che fa è inventare l’informazione. Questo è pericoloso, perché l’umano che legge la risposta può prenderla per valida e possono esserci casi molto complessi di persone che considerano vera la risposta , quando è totalmente inventato.
casi di a cattive informazioni online su siti web, forum, RSS e ci sono migliaia di persone che ci fanno cose stupide, ecco perché NVIDIA vuole entrare in questo complesso problema aiutando ChatGPT in un modo piuttosto particolare.
NeMO Guardrails: gli strumenti per lanciare “protezioni” alle IA
NeMO Guardrails non è altro che un insieme di strumenti, programmi e software, fonte aperta che aggiungerà protezioni programmabili a qualsiasi sistema LLM e alla sua intelligenza artificiale. In altre parole, è un firewall per l’IA e il suo modello di apprendimentoche è anche configurabile per adattarsi all’azienda.
Esempi pratici per capirlo. Hai un’intelligenza artificiale e non vuoi che parli di un argomento specifico, per qualsiasi motivo. È qui che entra in gioco NeMO Guardrails per garantire che il modello di apprendimento e quindi la risposta dell’IA non offra risultati indesiderati o attesi. NVIDIA lo spiega così:
“NeMo Guardrails è un toolkit open source per aggiungere facilmente guardrail programmabili ai sistemi conversazionali basati su LLM. Guardrails (o “rails” in breve) sono modi specifici per controllare l’output di un Large Language Model, come la politica di non parlare, rispondere in un modo particolare per richieste specifiche dell’utente, seguire un percorso di dialogo predefinito, utilizzare uno stile di linguaggio particolare, estrarre dati strutturati e altro ancora”
Tre tipi di limiti per le IA. NVIDIA si muove per stare al passo con i governi
Cioè, puoi costringere la tua IA a fare o rispondere in base ai parametri desiderati. Immagina un’intelligenza artificiale per aiutare o rispondere agli utenti sui siti Web governativi, in modo che possano svolgere le procedure più facilmente e online. Con NeMO Guardrails puoi programmarlo in modo che non tocchi nessun argomento politico o risponda a insulti o minacce.
Puoi modellare la tua IA come preferisci. Come sempre, chi c’è dietro quell’IA sarà responsabile di dove mirerà, a cosa può o non può rispondere e in che modo. Detto questo, precisa NVIDIA tre tipi di limiti:
- Parapetti topici: impediscono alle app di vagare in aree indesiderate. Ad esempio, impediscono agli assistenti del servizio clienti di rispondere a domande sul tempo.
- Parapetti di sicurezza: assicurano che le applicazioni rispondano con informazioni accurate e appropriate. Possono filtrare il linguaggio indesiderato e imporre che i riferimenti vengano fatti solo a fonti credibili.
- Guardrail di sicurezza limitano le applicazioni a stabilire connessioni solo con applicazioni esterne di terze parti note per essere sicure.
Questo, appunto, fa parte del problema di ChatGPT nell’UE, curiosamente, NeMO Guardrails è uscito dopo che l’Italia ha bloccato l’IA di OpenAI, la Spagna ha seri dubbi e la Germania ha chiesto più dati sul modello di apprendimento, che cosa (cappello di argento acceso). Curioso a dir poco.