Il “Padrino del Deep Learning” lascia Google e mette in guardia sui rischi dell’IA

Il fatto che oggi disponiamo di un’intelligenza artificiale che può fare il lavoro per noi, sostituendo gli esseri umani, ci dice fino a che punto è arrivata l’intelligenza artificiale e quanto sarà pericolosa quando progredirà ulteriormente. Questo argomento non è nuovo, ma si scopre che abbiamo una figura di spicco del settore che ci mette nuovamente in guardia sull’intelligenza artificiale. Così, il cosiddetto “Padrino del Deep Learning“, ah Google abbandonato e ha messo in guardia I rischi dell’IA per l’umanità.

Abbiamo visto tutti l’incredibile evoluzione dell’IA negli ultimi anni. Sembra irreale che siamo avanzati così velocemente, considerando che anni fa non avevamo nulla di lontanamente simile a quello che abbiamo oggi. I chatbot esistono da decenni sì, ma ChatGPT ha rivoluzionato ciò di cui è capace un chatbot. In effetti, questa IA è quella che ci ha sorpreso di più e l’abbiamo temuta in parti uguali. Ed è che, come hai già immaginato, le IA stanno raggiungendo un punto in cui nel prossimo futuro potrebbero avere un potere maggiore del previsto e sorge la possibilità che possano sopraffarci.

Geoffrey Hinton si dimette da Google e mette in guardia sui rischi dell’IA

Quando OpenAI ha presentato il suo modello GPT-4 più avanzati, non hanno impiegato molto a chiedersi se questo rappresentava un pericolo per l’umanità. Un modo per scoprirlo era semplicemente chiedere all’IA e vedere che tipo di risposte dà. Sebbene per noi non significhi molto che un’intelligenza artificiale “sfugga al controllo”, coloro che lavorano in quel dipartimento mostrano grande preoccupazione. Infatti, parlando di loro, ora il Il dottor Geoffrey Hintonnoto come il Padrino del Deep Learning, ha deciso lascia il tuo lavoro in google non senza prima mettere in guardia sui rischi dell’IA.

Ha lavorato nell’ultimo decennio occupandosi dello sviluppo dell’intelligenza artificiale di Google. È stato uno dei ricercatori più importanti in questo campo ed è per questo che è una figura importante nel settore. Il fatto che abbia deciso di dimettersi dalla sua posizione in Google è andato di pari passo con il suo ultimo avvertimento sull’intelligenza artificiale, affermando che non dovrebbero intensificarsi e andare oltre finché non saremo in grado di controllarli.

Le IA dovranno essere controllate prima di passare al livello successivo

Microsoft Robots AI Chat GPT

Hinton ha creato Ricerca DNNuna società che è stata acquisita da Google per 44 milioni di dollari. Da quel momento in poi, Hinton ha accettato un lavoro part-time presso Google pur continuando la sua posizione presso l’Università di Toronto. È stato apprezzato per i suoi contributi all’apprendimento profondo, come il rriconoscimento vocale e classificazione degli oggetti. Il problema è che ora Hinton la pensa in modo più diverso e la prima cosa dopo le dimissioni da Google è mettere in guardia sui rischi dell’IA.

Come indicato, se lo sviluppo dell’IA progredisce, possono diventare più intelligenti degli umani e se non possiamo controllarli, potrebbe essere fatale. Come afferma il famoso ricercatore, aziende come Microsoft e Google competono tra loro per offrire l’intelligenza artificiale più avanzatas, ma tutto questo è solo una frazione di ciò che sappiamo. Il modo in cui un’intelligenza artificiale progredisce è qualcosa che si conosce solo internamente e allo stesso modo se si verifica un temuto intelligenza artificialeCattivo“, saremmo in pericolo. Hinton riconosce che c’è una possibilità che il persone cattive fare uso di una futura IA che non ha buone intenzioni. Per questo ne sottolinea la necessità controllare l’intelligenza artificiale prima che vada oltre.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *