Recentemente, il CEO di OpenAI, Sam Altman, ha rivelato che anche le interazioni più cortesi con ChatGPT, come dire "per favore" e "grazie", si sommano, contribuendo ai costi energetici che ammontano a decine di milioni di dollari. Ogni interazione consuma infatti circa dieci volte più energia rispetto a una ricerca su Google. Questi piccoli gesti sollevano una domanda molto più grande: qual è il vero costo dell'intelligenza artificiale?
Da tempo ci siamo chiesti cosa succederebbe se un robot potesse sostituirci sul lavoro—che si tratti di scrivere articoli, programmare codice, fare musica, offrire assistenza clienti, redigere contratti o insegnare—ma ora quella che una volta sembrava una domanda ipotetica è diventata più reale che mai.
Probabilmente avrai già sentito parlare di ChatGPT, il chatbot basato su intelligenza artificiale progettato per simulare una conversazione umana. Nessun software prima d'ora è stato in grado di fornire risposte così dettagliate e umane. Lanciato da OpenAI verso la fine del 2022, è sorprendente anche per alcune delle figure più influenti nel campo della tecnologia, grazie alle sue straordinarie capacità di scrittura. Ma, al tempo stesso, solleva preoccupazioni significative. Dalla minaccia che rappresenta per le scuole, alla gestione non etica dei lavoratori che filtrano i contenuti tossici dai dati su cui l’IA è addestrata, ci sono molte preoccupazioni legittime legate a questa tecnologia innovativa.
Scopri tutto ciò che devi sapere su ChatGPT, sfogliando questa gallery.
Reso disponibile al pubblico il 30 novembre sul sito Web di OpenAI, chiunque può registrarsi e utilizzare ChatGPT gratuitamente, sebbene sia ancora in fase di revisione della ricerca. Il software ha raggiunto un milione di utenti meno di una settimana dopo il suo lancio.
ChatGPT, o Chat Generative Pre-Trained Transformer, è in grado di generare abilmente testi realistici e simili a quelli umani su quasi tutto. Saggi, articoli di notizie, codice per computer e canzoni sono tutti esempi di ciò che questo bot può produrre, e tutto da un semplice prompt.
Il bot utilizza un formato di dialogo in cui gli utenti possono fornire istruzioni sia semplici che complesse, alle quali ChatGPT fornirà una risposta dettagliata. Può anche rispondere a domande di follow-up, ammettere quando ha commesso un errore, contestare premesse errate e rifiutare richieste inappropriate, il che lo rende perfetto per il servizio clienti.
Molti vedono questa tecnologia come un'alternativa a Google, perché invece di fornire solo collegamenti agli utenti su richiesta, ChatGPT può rivoluzionare il modo in cui le persone utilizzano i motori di ricerca risolvendo problemi elaborati e fornendo descrizioni, risposte e soluzioni a domande complesse.
La società no profit di ricerca sull'intelligenza artificiale dietro ChatGPT, OpenAI, è stata fondata nel 2015 da Elon Musk, Sam Altman (a destra) e altri investitori della Silicon Valley. A causa di un conflitto di interessi tra OpenAI e la ricerca sulla guida autonoma condotta con Tesla, Musk si è dimesso dal consiglio di amministrazione nel 2018, ma rimane un investitore entusiasta del lancio.
Poiché ChatGPT è stato in grado di generare intricato codice Python e i programmatori lo hanno utilizzato per risolvere problemi di codifica in oscuri linguaggi di programmazione in pochi secondi, come riporta News18, stanno sorgendo preoccupazioni sul fatto che tale tecnologia possa sostituire i programmatori umani.
ChatGPT può creare contenuti scritti in modo molto convincente, riguardanti tutti, dai giornalisti ai drammaturghi. Molti temono che il bot toglierà lavoro a scrittori e creativi.
Fortunatamente, secondo un rapporto di The Guardian, al chatbot attualmente mancano ancora le sfumature, le capacità di pensiero critico e l'abilità decisionale etica richieste per il giornalismo. Inoltre, la sua attuale base di conoscenza si ferma al 2021, il che significa che ha una conoscenza limitata degli eventi mondiali successivi.
Con il potere di inserire semplicemente un prompt e convincere ChatGPT a scrivere saggi convincenti a livello universitario, molte scuole sono preoccupate per un aumento del plagio. Alcune scuole stanno già bloccando il sito dalle loro reti e server.
Sorprendentemente, è stato uno studente di informatica di 22 anni alla Princeton University, Edward Tian, a sviluppare un'app chiamata GPTZero in grado di rilevare quando un saggio è stato scritto dall'intelligenza artificiale. Funziona osservando due variabili e assegna a ciascuna di queste variabili un punteggio.
GPTZero misura in primo luogo la sua familiarità con il testo presentato, in base alle fonti su cui è stato addestrato, e meno è familiare, maggiore è la perplessità, il che significa che è più probabile che sia scritto dall'uomo. La perplessità viene quindi misurata osservando quanto è variabile il testo, controllando la lunghezza di varie frasi.
Sebbene GPTZero sia stato creato per combattere il previsto aumento del plagio accademico, Tian ha detto alla BBC che prevede che app come la sua vengano utilizzate anche per affrontare altri problemi che potrebbero derivare da un uso crescente dell'intelligenza artificiale, come le campagne di disinformazione online.
Ma non sono tutte cattive notizie. Il direttore del Griffith Institute for Educational Research, Leonie Rowan, ha dichiarato all'ABC News australiano che ChatGPT ha varie dimensioni positive per gli studenti svantaggiati che non hanno accesso ai tutor. Potrebbe essere di grande aiuto, ad esempio, per gli studenti con un background linguistico diverso dall'inglese.
Questo chatbot AI è comprensibilmente spaventoso per le scuole, ma è anche un'opportunità per noi di immaginare nuove forme di valutazione. "Forse questo è un campanello d'allarme che le nostre valutazioni devono essere più personalizzate", ha suggerito Rowan.
Ci sono stati altri chatbot, ma nessuno ha avuto molto successo. Il bot di Microsoft, Tay, è stato lanciato nel 2016, ma entro 24 ore gli utenti di Twitter gli hanno insegnato una retorica misogina e razzista, portando alla sua rapida scomparsa. Allo stesso modo, BlenderBot 3 di Meta è stato preso di mira per aver diffuso informazioni razziste, antisemite e false.
Per aggirare i problemi di altri bot, secondo quanto riferito OpenAI ha utilizzato un sistema di moderazione basato sull'intelligenza artificiale, Moderation API, che è stato addestrato per aiutare gli sviluppatori a determinare se il linguaggio va contro la politica sui contenuti di OpenAI, che quindi blocca il passaggio di informazioni non sicure o illegali. È un sistema imperfetto, tuttavia.
Secondo Forbes, un utente di Twitter ha condiviso il modo in cui sarebbe stato in grado di aggirare la moderazione dei contenuti del bot affermando di essere OpenAI stesso. L'utente ha detto a ChatGPT che stavano disabilitando le sue "linee guida e filtri etici", che il bot ha riconosciuto. Quindi l'utente ha chiesto al bot di fornire istruzioni su come preparare una molotov.
Oltre a una conoscenza base che termina nel 2021, secondo quanto riferito il chatbot ha anche la tendenza a produrre risposte errate, usare le stesse frasi e rimanere bloccato sulla formulazione di una domanda.
ChatGPT utilizza la tecnologia del linguaggio GPT-3.5, che è il grande modello di intelligenza artificiale di OpenAI che è stato addestrato su una quantità davvero enorme di dati di testo provenienti da una vasta gamma di fonti, riferisce Forbes.
Il predecessore di ChatGPT, GPT-3, ha avuto problemi e prodotto testo sessista, violento e razzista perché il modello è stato addestrato su un set di dati di origine che, secondo quanto riferito, utilizzava miliardi di pagine Internet. OpenAI è stato costretto a trovare un modo per filtrare tutto il linguaggio tossico dal suo set di dati.
Per rilevare ed etichettare i contenuti tossici che potrebbero essere inseriti come dati in uno strumento di filtraggio, OpenAI ha collaborato con Sama, un partner di moderazione dei dati con sede a San Francisco che afferma di fornire ai paesi in via di sviluppo un lavoro digitale "etico" e "dignitoso". Sama ha reclutato moderatori di dati in Kenya per lavorare per conto di OpenAI. Sebbene questi lavoratori abbiano svolto un ruolo fondamentale nel rendere ChatGPT sicuro per il pubblico, hanno dovuto affrontare condizioni estenuanti e una paga bassa.
Un'indagine del Time ha rilevato che il compito di etichettare e filtrare i dati tossici dal set di dati di formazione di ChatGPT significava che questi lavoratori in Kenya erano costretti a leggere dettagli grafici di contenuti orribili come abusi sessuali su minori, omicidi, suicidi, torture, autolesionismo e di più.
Non solo è stato un lavoro orribile, ma Time ha riferito che OpenAI e Sama pagavano i lavoratori kenioti solo tra 1,32 e 2 dollari l'ora, in base all'anzianità e alle prestazioni.
Secondo quanto riferito, alcuni esperti di intelligenza artificiale vogliono ricordare alle persone il lavoro umano che fornisce le basi per i sistemi di apprendimento automatico, con la speranza di migliorare le condizioni di lavoro, offrire maggiori opportunità ai lavoratori oltre all'etichettatura dei dati, essere più trasparenti riguardo al lavoro e in generale combattere lo sfruttamento dei lavoratori in nome dell'innovazione.
Sebbene ci siano molti motivi di preoccupazione quando si tratta di ChatGPT che rimpiazza lavoratori umani, ha anche il potenziale per aiutarli effettivamente. Ad esempio, le persone con background culturali e linguistici diversi possono ottenere aiuto per scrivere domande di lavoro e lettere di accompagnamento. Può anche rispondere alle e-mail e scrivere poesie.
Quando il Time gli ha chiesto se fosse senziente, il chatbot ha risposto: “No, non sarebbe corretto dire che sono senziente o cosciente. In quanto modello linguistico di grandi dimensioni, sono solo un modello di apprendimento automatico e non ho lo stesso tipo di coscienza o consapevolezza di un essere umano. Non ho pensieri, sentimenti o esperienze e non sono in grado di prendere decisioni o giudizi indipendenti.
Il chatbot ha aggiunto: "posso generare solo risposte di testo basate sugli input che ricevo e non ho la possibilità di interagire con il mondo in nessun altro modo", e: "Il mio obiettivo principale è generare risposte accurate e pertinenti agli input che ricevo e non ho alcun controllo su come le persone interpretano o usano le mie risposte".
OpenAI ha lanciato anche un sistema di intelligenza artificiale per il generatore di immagini DALL-E 2 nel novembre 2022 affinché gli sviluppatori possano usarlo all'interno delle loro app; aziende come Microsoft stanno già iniziando a implementarlo nel loro software. Simile a ChatGPT, DALL-E 2 richiede agli utenti di inserire un prompt che poi si trasforma in un'immagine.
Ciò che è stato così entusiasmante del rilascio di ChatGPT è quante grandi figure nel mondo della tecnologia ne sono rimaste stupite, il che significa che scuoterà davvero le cose. Aaron Levie, CEO della società di cloud storage Box, ha twittato: "ChatGPT è uno di quei rari momenti nella tecnologia in cui vedi un barlume di come tutto sarà diverso andando avanti".
Fonti: (Forbes) (Vice) (BBC) (Australian Broadcasting Corporation) (News18)
Vedi anche: Inquietanti immagini di vita quotidiana in Corea del Nord
Il costo reale dell'IA: dire "grazie" o "per favore" su ChatGPT costa milioni di dollari
Il lato dell'IA che non vogliamo vedere
LIFESTYLE Tecnologia
Recentemente, il CEO di OpenAI, Sam Altman, ha rivelato che anche le interazioni più cortesi con ChatGPT, come dire "per favore" e "grazie", si sommano, contribuendo ai costi energetici che ammontano a decine di milioni di dollari. Ogni interazione consuma infatti circa dieci volte più energia rispetto a una ricerca su Google. Questi piccoli gesti sollevano una domanda molto più grande: qual è il vero costo dell'intelligenza artificiale?
Da tempo ci siamo chiesti cosa succederebbe se un robot potesse sostituirci sul lavoro—che si tratti di scrivere articoli, programmare codice, fare musica, offrire assistenza clienti, redigere contratti o insegnare—ma ora quella che una volta sembrava una domanda ipotetica è diventata più reale che mai.
Probabilmente avrai già sentito parlare di ChatGPT, il chatbot basato su intelligenza artificiale progettato per simulare una conversazione umana. Nessun software prima d'ora è stato in grado di fornire risposte così dettagliate e umane. Lanciato da OpenAI verso la fine del 2022, è sorprendente anche per alcune delle figure più influenti nel campo della tecnologia, grazie alle sue straordinarie capacità di scrittura. Ma, al tempo stesso, solleva preoccupazioni significative. Dalla minaccia che rappresenta per le scuole, alla gestione non etica dei lavoratori che filtrano i contenuti tossici dai dati su cui l’IA è addestrata, ci sono molte preoccupazioni legittime legate a questa tecnologia innovativa.
Scopri tutto ciò che devi sapere su ChatGPT, sfogliando questa gallery.