Mercato AI: Sfide, Opportunità e Consapevolezza

Di Tommaso Bortoletto

L’intelligenza artificiale è ormai parte del nostro presente e lo sarà sempre di più in futuro ed è proprio per questo che la sfida di oggi è quella di avere un approccio attivo nel suo sviluppo e non essere semplicemente dei soggetti passivi che subiscono l’arrivo di questa tecnologia. C’è il timore che l’intelligenza artificiale entri nelle attività quotidiane all’improvviso e con prepotenza con un forte impatto nel tessuto sociale ed economico. Tuttavia, va riconosciuto che siamo noi “umani” a crearla e svilupparla e quindi siamo noi in prima persone a poterla programmare, regolamentare e controllarne l’uso. L’intelligenza artificiale, al contrario di come molti pensano, è una scienza e una tecnologia che, anche se in forme diverse rispetto a quella odierna, è presente nelle nostre vite da oltre cinquant’anni. Al principio non aveva una capacità tale da generare risposte autonomamente ma venivano codificati dai programmatori tutti gli output che doveva emettere in risposta a una serie predefinita di input. La fase successiva è caratterizzata dal “Machine Learning” un processo con una tecnica diversa dalla precedente in cui veniva detto alla macchina come risolvere un problema dandogli tanti esempi di problemi e soluzioni. Lo sviluppo finale che ha reso possibile l’utilizzo nella vita quotidiana è stato fatto grazie al “deep learning” che ha dato alla macchina la capacità di interpretare contenuti come i testi, le immagini e video.

L’ultima fase è quella dell’Intelligenza Artificiale generativa che a differenza delle precedente non è capace solo di interprete i contenuti, ma anche di generarne di nuovi completamente in modo autonomo.
L’intelligenza artificiale in futuro avrà come compito proprio quello di compiere scelte come il tasso di interesse da applicare a un mutuo, decidere quale candidato assumere e in quale posizione. Per l’impatto che avranno queste decisioni su di noi è necessario che il processo di “decision making” svolto dall’intelligenza artificiale sia imparziale e libero da alcun pregiudizio. Ad esempio, Amazon aveva assegnato all’intelligenza artificiale il compito della selezione dei candidati ma emerse che l’AI era influenzata da un pregiudizio basato sul sesso. Il problema che sorge quindi è l’inesistenza di una legislazione significativa per il training dell’AI che garantisca lo sviluppo di un’intelligenza artificiale etica senza pregiudizi. Tuttavia, diverse giurisdizioni di Paesi diversi hanno iniziato un iter legislativo per regolamentare questa nuova tecnologia.

Il Parlamento Europeo il 13 marzo 2024 dopo due anni di lavori è stata la prima grande istituzione a formulare un quadro giuridico comune in tutti i gli Stati membri proprio per l’intelligenza artificiale. L’obbiettivo non è stato quello di porre un freno al suo sviluppo e al suo utilizzo ma piuttosto di garantire trasparenza e ridurre i rischi connessi.

Un punto chiave del provvedimento riguarda la protezione dei diritti dei cittadini, infatti, sono stati vietate tutte le applicazioni che usavano l’AI per “manipolare il comportamento umano o sfruttare la vulnerabilità delle persone”. Particolare attenzione è stata anche

posta sulla tutela del diritto d’autore soprattutto per l’intelligenza artificiale generativa come ChatGPT o Gemini. Infine, il regolamento imporrà l’obbligo di etichettare video, audio, testi e immagini generati artificialmente come tali, per contrastare la diffusione di notizie false che potrebbero scaturire da questi materiali.

Va riconosciuto che l’intelligenza artificiale generativa oggi non si può ancora considerare perfetta, infatti, spesso incorre in errori talvolta anche banali. Un tool sviluppato da OpenAI capace di generare video realistici tramite richieste scritte chiamato Sora, ad esempio, ha creato un video su delle formiche che camminano in un formicaio raffigurandole con 4 zampe invece di 6. Un altro esempio di errore causato dall’Intelligenza artificiale è stato quello di un avvocato di New York che ha utilizzato Chat GPT per trovare delle sentenze passate a supporto del caso che avrebbe dovuto discutere in aula scoprendo poi che l’output generato era tutto inventato. Questi fenomeni vengono chiamati “AI Hallucination State” in cui l’intelligenza artificiale genera una riposta chiara e logica ma totalmente inventata. La sua capacità di dare una risposta esaustiva può trarre in inganno persone inesperte. Le domande che provano ad approfondire gli argomenti, infatti, vengono spesso sviate oppure l’intelligenza artificiale fornisce dei risultati errati. In questi casi subentra la responsabilità del singolo nell’essere consapevoli e quindi vigili nell’utilizzo di questa tecnologia.

In conclusione, l’intelligenza artificiale si sta integrando sempre di più all’interno della vita quotidiana portando benefici ed efficienza ma anche rischi e paure. Proprio per questo la consapevolezza dei suoi rischi e limiti può portarci a sviluppare modelli sempre più innovativi rivolti a un miglioramento sia in termini di affidabilità che di etica degli output generati. La politica in questo scenario non può avere un ruolo passivo ma deve intervenire attivamente fornendo un quadro normativo capace di dare da un lato sicurezza ai cittadini e dall’altro indicazioni per gli sviluppatori. La sfida che l’intelligenza artificiale presenta è quella di riuscire a integrare il suo utilizzo nelle attività quotidiane senza però impattare in modo significativo nel tessuto economico e sociale che caratterizza la società odierna.


Lascia un commento