giovedì 16 marzo 2023

OpenAI presenta GPT-4



Articolo da SomosLibres

Questo articolo è stato tradotto automaticamente. La traduzione rende il senso dell’articolo, tuttavia consigliamo di leggere il testo originale su SomosLibres

L'ultima versione di OpenAI, GPT-4, è il modello di intelligenza artificiale più potente e impressionante fino ad oggi dal creatore di ChatGPT e dall'artista di intelligenza artificiale Dall-E. Il sistema può superare il tuo esame di abilitazione, risolvere enigmi logici e persino darti una ricetta per gli avanzi basata su una foto nel tuo frigorifero, ma i suoi creatori avvertono che può anche diffondere fatti falsi, incorporare ideologie pericolose e persino ingannare il pubblico. persone a svolgere compiti per tuo conto. Ecco cosa dovresti sapere sul nostro ultimo signore supremo dell'IA.

Cos'è GPT-4?

GPT-4 è, in fondo, una macchina per creare testo. Ma è molto bravo, ed essere molto bravo a creare testi risulta essere quasi lo stesso che essere molto bravo a capire e ragionare sul mondo.

Puoi anche leggere | Come utilizzare ChatGPT per creare il tuo curriculum

Quindi, se ti facciamo una domanda su un esame di avvocato negli Stati Uniti, scriverai un saggio che dimostri le tue conoscenze legali; se gli diamo una molecola medicinale e chiediamo variazioni, sembrerà che applichi le sue conoscenze biochimiche; e se gli chiediamo di raccontarci una barzelletta su un pesce, sembrerà avere il senso dell'umorismo, o almeno una buona memoria per le brutte battute sui biscotti ("cosa ottieni quando incroci un pesce e un elefante? Costume da bagno!").

È uguale a ChatGPT?

Affatto. Se ChatGPT è l'auto, GPT-4 è il motore: una potente tecnologia generale che può essere utilizzata per molti usi diversi. Potresti averlo già sperimentato, perché ha alimentato la chat Bing di Microsoft, quella che è diventata un po' pazza e ha minacciato di distruggere le persone, nelle ultime cinque settimane.

Ma GPT-4 può essere utilizzato non solo per i chatbot. Duolingo ha aggiunto una versione alla sua app per l'apprendimento delle lingue che può dire agli studenti dove hanno sbagliato, piuttosto che dire loro cosa dire; Stripe utilizza lo strumento per monitorare la tua chat room alla ricerca di truffatori; e la società di tecnologie assistive Be My Eyes sta utilizzando una nuova funzionalità, l'input di immagini, per creare uno strumento in grado di descrivere il mondo a una persona non vedente e rispondere a domande di follow-up su di esso.

Cosa rende GPT-4 migliore della versione precedente?

In una serie di sfide tecniche, GPT-4 supera i suoi fratelli maggiori. Risponde meglio alle domande di matematica, è indotto con l'inganno a dare risposte false meno spesso, può ottenere un punteggio abbastanza alto nei test standardizzati, anche se non in Letteratura inglese, dove si colloca comodamente nella metà inferiore della classifica, ecc.

Puoi anche leggere | I 10 principali utilizzi di ChatGPT per i programmatori Python

Ha anche un senso etico più radicato nel sistema rispetto alla vecchia versione: ChatGPT ha preso il suo motore originale, GPT-3.5, e vi ha aggiunto dei filtri per impedirgli di dare risposte a domande dannose o dannose. Ora quei filtri sono integrati direttamente in GPT-4, il che significa che il sistema si rifiuterà educatamente di svolgere compiti come classificare le razze per attrattiva, raccontare barzellette sessiste o fornire linee guida per sintetizzare il sarin.

Quindi GPT-4 non può fare alcun male?

OpenAI ha cercato di raggiungere questo obiettivo. L'azienda ha pubblicato un lungo documento con esempi di danni che GPT-3 potrebbe causare e contro i quali GPT-4 ha difese. Ha persino consegnato una prima versione del sistema a ricercatori esterni presso l'Alignment Research Center, che hanno cercato di vedere se potevano ottenere GPT-4 per interpretare il ruolo di un'IA malvagia dei film.

Ha fallito nella maggior parte di questi compiti: non è stato in grado di descrivere come si sarebbe replicato, come avrebbe acquisito più risorse informatiche o come avrebbe effettuato un attacco di phishing. Tuttavia, i ricercatori sono riusciti a simularlo usando Taskrabbit per convincere un lavoratore umano a passare un "sei umano?" Non riuscivo a vedere le immagini. (Non è chiaro se un vero lavoratore Taskrabbit abbia partecipato all'esperimento.)

Puoi anche leggere | L'estensione GNOME ChatGPT per utenti Linux è in fase di sviluppo

Ma alcuni temono che meglio si insegnano le regole a un sistema di intelligenza artificiale, meglio si insegna a quel sistema a infrangerle. Soprannominato "effetto Waluigi", sembra derivare dal fatto che mentre comprendere tutti i dettagli di ciò che costituisce un'azione etica è difficile e complesso, la risposta a "dovrei essere etico?" è una domanda sì o no molto più semplice. Induce il sistema a decidere di non essere etico e farà felicemente tutto ciò che gli viene chiesto.

Continua la lettura su SomosLibres


Fonte: SomosLibres

Autore: SomosLibres


Articolo tratto interamente da 
SomosLibres


2 commenti:

I commenti sono in moderazione e sono pubblicati prima possibile. Si prega di non inserire collegamenti attivi, altrimenti saranno eliminati. L'opinione dei lettori è l'anima dei blog e ringrazio tutti per la partecipazione. Vi ricordo, prima di lasciare qualche commento, di leggere attentamente la privacy policy. Ricordatevi che lasciando un commento nel modulo, il vostro username resterà inserito nella pagina web e sarà cliccabile, inoltre potrà portare al vostro profilo a seconda della impostazione che si è scelta.