L’INTELLIGENZA ARTIFICIALE È PERICOLOSA?


Man mano che i sistemi di IA (Intelligenza Artificiale) diventeranno più potenti e generalisti, supereranno gli umani in molte aree. Gli esperti in questo campo stanno già lavorando a sistemi di Intelligenza Artificiale universali in grado non solo di svolgere compiti altamente complessi, ma anche, in alcuni casi, persino di superare l’uomo. Quando l'Intelligenza Artificiale Universale supererà l'umanità, o quando l'Intelligenza Universale diventerà super-intelligente, potrà essere difficile o impossibile per l'uomo controllarla. Creare un’Intelligenza artificiale super-intelligente è possibile, così come, tuttavia, è possibile che gli obiettivi della stessa siano in contrasto con la base della morale umana, o che l'IA rappresenti un rischio di estinzione, non essendone i comportamenti prevedibili. Nick Bostrom ha proposto uno scenario del genere per i decenni a venire, a mano a mano che l'IA acquisisce potere. Come esseri umani, dobbiamo assicurarci che gli obiettivi dell'Intelligenza Artificiale corrispondano ai nostri. Poiché quest’ultima rende e controlla la tecnologia più intelligente, la più grande minaccia costituita da questa risiede nella sua capacità di superare l'Intelligenza Umana. Dobbiamo fare tutto ciò che è in nostro potere per garantire che i fini dell'IA rimangano compatibili con i nostri, e con la nostra morale. Per raggiungere questo obiettivo, è necessario che i ricercatori, i produttori e l'industria dell'IA ricordino che la tecnologia non deve manipolare gli esseri umani e le loro società. Crediamo che una corsa agli armamenti militari con l'Intelligenza Artificiale non sia un bene per l'umanità. Come in molte aree, l'Intelligenza Artificiale rappresenta una minaccia per gli esseri umani, ed è positivo che se ne parli in modo che possa essere prevista e controllata in futuro. Quest’anno è stato pubblicato su Vox un post in cui sono stati descritti alcuni scenari terrificanti che coinvolgono lo sviluppo di sofisticati sistemi di IA, con l'obiettivo di stimare le statistiche con grande sicurezza. I miglioramenti apportati all’Intelligenza Artificiale stanno ogni giorno divenendo sempre più importanti, e così anche i rischi che essa comporta: dalla perdita di posti di lavoro a catastrofici scenari apocalittici. Riguardo al rischio rappresentato dall'Intelligenza Artificiale il dibattito è ancora aperto e vivo, e vi è una generale mancanza di comprensione e consenso sulla tecnologia dell'Intelligenza Artificiale. Questo articolo discute i cinque principali rischi dell'Intelligenza Artificiale e le tecnologie disponibili dietro di essa. Falchi come Musk e figure di spicco a Oxford, UC Berkeley e molti ricercatori che oggi lavorano sull'Intelligenza Artificiale credono che i sistemi avanzati di IA potrebbero definitivamente portare la civiltà umana all’estinzione una volta messi in funzione. È plausibile aspettarsi che la corsa agli armamenti nucleari sarà sostituita da una corsa agli armamenti autonomi globali. I programmi di IA sono intrinsecamente pericolosi, ma nel caso di programmi bellici autonomi, uno dei numerosi pericoli rappresentati dall’IA è l’uccisione di uomini. Le vere preoccupazioni celate dietro le rappresentazioni popolari dell'IA distolgono la nostra attenzione dai rischi più complessi e pericolosi posti dall'uso improprio delle applicazioni di Intelligenza Artificiale disponibili e sviluppate oggi. Il caso che l'IA rappresenti un rischio esistenziale per l'umanità è complicato e difficile da comprendere. Sebbene sia possibile non raggiungere macchine super-intelligenti nel prossimo futuro, le questioni legali, politiche, sociali e finanziarie sono complesse e di vasta portata, ed è necessario esaminarle in modo da essere pronti ad agire a tempo debito. Il disagio regna su diversi fronti, che si tratti della crescente automazione di alcuni lavori, dei pregiudizi di genere ed etnici dovuti a fonti di informazioni obsolete o delle armi autonome che operano senza la supervisione umana. Centinaia di esperti in tecnologia hanno chiesto all’ONU di lavorare per proteggere l'umanità dai rischi delle armi autonome, controllate da sistemi di IA senza intervento umano ed in circolazione già da tempo. Vi è la preoccupazione che le armi autonome possano sviluppare una propria opinione, e che queste possano essere adoperate da individui privi di una qualsiasi considerazione della vita umana. Istituzioni come il Machine Intelligence Research Institute, il Future of Humanity Institute, Future of Life Institute, Center for Study of Existential Risk e il Center for Human-Compatible AI, sono coinvolte nella riduzione dei rischi esistenziali di un’Intelligenza Artificiale avanzata attraverso, ad esempio, la ricerca su un’Intelligenza Artificiale rispettosa dell'ambiente. Le organizzazioni affermate che si occupano di sicurezza tecnica dell'IA, come il Machine Intelligence Research Institute (MIRI), danno priorità alla ricerca per sviluppare agenti affidabili o programmi di IA il cui comportamento possa essere prevenuto, affinché si possa avere una maggiore sicurezza. L'obiettivo a lungo termine di molti ricercatori è creare una forte Intelligenza Artificiale Universale: un'intelligenza speculativa in cui le macchine possano comprendere e apprendere incarichi, svolgerli più efficientemente degli umani e aiutare l’umanità a risolvere e superare i propri problemi. Il Santo Graal di un’IA forte o di un’Intelligenza Artificiale Universale (IAU) è un livello tecnologico in cui le macchine hanno una maggiore autonomia e versatilità che consente loro di superare l'essere umano nei compiti cognitivi. Un’intelligenza sovraumana nel torto, la necessità di corpi robotici con accesso a Internet o la necessità di superare in astuzia i mercati finanziari, inventare ricercatori umani, manipolare leader umani o sviluppare armi che non comprendiamo: questi sono i pericoli dell’Intelligenza Artificiale.



2 visualizzazioni0 commenti