Articolo da SomosLibres
Questo articolo è stato tradotto automaticamente. La traduzione rende il senso dell’articolo, tuttavia consigliamo di leggere il testo originale su SomosLibres
L'ultima versione di OpenAI, GPT-4, è il modello di intelligenza artificiale più potente e impressionante fino ad oggi dal creatore di ChatGPT e dall'artista di intelligenza artificiale Dall-E. Il sistema può superare il tuo esame di abilitazione, risolvere enigmi logici e persino darti una ricetta per gli avanzi basata su una foto nel tuo frigorifero, ma i suoi creatori avvertono che può anche diffondere fatti falsi, incorporare ideologie pericolose e persino ingannare il pubblico. persone a svolgere compiti per tuo conto. Ecco cosa dovresti sapere sul nostro ultimo signore supremo dell'IA.
Cos'è GPT-4?
GPT-4 è, in fondo, una macchina per creare testo. Ma è molto bravo, ed essere molto bravo a creare testi risulta essere quasi lo stesso che essere molto bravo a capire e ragionare sul mondo.
Puoi anche leggere | Come utilizzare ChatGPT per creare il tuo curriculum
Quindi, se ti facciamo una domanda su un esame di avvocato negli Stati Uniti, scriverai un saggio che dimostri le tue conoscenze legali; se gli diamo una molecola medicinale e chiediamo variazioni, sembrerà che applichi le sue conoscenze biochimiche; e se gli chiediamo di raccontarci una barzelletta su un pesce, sembrerà avere il senso dell'umorismo, o almeno una buona memoria per le brutte battute sui biscotti ("cosa ottieni quando incroci un pesce e un elefante? Costume da bagno!").
È uguale a ChatGPT?
Affatto. Se ChatGPT è l'auto, GPT-4 è il motore: una potente tecnologia generale che può essere utilizzata per molti usi diversi. Potresti averlo già sperimentato, perché ha alimentato la chat Bing di Microsoft, quella che è diventata un po' pazza e ha minacciato di distruggere le persone, nelle ultime cinque settimane.
Ma GPT-4 può essere utilizzato non solo per i chatbot. Duolingo ha aggiunto una versione alla sua app per l'apprendimento delle lingue che può dire agli studenti dove hanno sbagliato, piuttosto che dire loro cosa dire; Stripe utilizza lo strumento per monitorare la tua chat room alla ricerca di truffatori; e la società di tecnologie assistive Be My Eyes sta utilizzando una nuova funzionalità, l'input di immagini, per creare uno strumento in grado di descrivere il mondo a una persona non vedente e rispondere a domande di follow-up su di esso.
Cosa rende GPT-4 migliore della versione precedente?
In una serie di sfide tecniche, GPT-4 supera i suoi fratelli maggiori. Risponde meglio alle domande di matematica, è indotto con l'inganno a dare risposte false meno spesso, può ottenere un punteggio abbastanza alto nei test standardizzati, anche se non in Letteratura inglese, dove si colloca comodamente nella metà inferiore della classifica, ecc.
Puoi anche leggere | I 10 principali utilizzi di ChatGPT per i programmatori Python
Ha anche un senso etico più radicato nel sistema rispetto alla vecchia versione: ChatGPT ha preso il suo motore originale, GPT-3.5, e vi ha aggiunto dei filtri per impedirgli di dare risposte a domande dannose o dannose. Ora quei filtri sono integrati direttamente in GPT-4, il che significa che il sistema si rifiuterà educatamente di svolgere compiti come classificare le razze per attrattiva, raccontare barzellette sessiste o fornire linee guida per sintetizzare il sarin.
Quindi GPT-4 non può fare alcun male?
OpenAI ha cercato di raggiungere questo obiettivo. L'azienda ha pubblicato un lungo documento con esempi di danni che GPT-3 potrebbe causare e contro i quali GPT-4 ha difese. Ha persino consegnato una prima versione del sistema a ricercatori esterni presso l'Alignment Research Center, che hanno cercato di vedere se potevano ottenere GPT-4 per interpretare il ruolo di un'IA malvagia dei film.
Ha fallito nella maggior parte di questi compiti: non è stato in grado di descrivere come si sarebbe replicato, come avrebbe acquisito più risorse informatiche o come avrebbe effettuato un attacco di phishing. Tuttavia, i ricercatori sono riusciti a simularlo usando Taskrabbit per convincere un lavoratore umano a passare un "sei umano?" Non riuscivo a vedere le immagini. (Non è chiaro se un vero lavoratore Taskrabbit abbia partecipato all'esperimento.)
Puoi anche leggere | L'estensione GNOME ChatGPT per utenti Linux è in fase di sviluppo
Ma alcuni temono che meglio si insegnano le regole a un sistema di intelligenza artificiale, meglio si insegna a quel sistema a infrangerle. Soprannominato "effetto Waluigi", sembra derivare dal fatto che mentre comprendere tutti i dettagli di ciò che costituisce un'azione etica è difficile e complesso, la risposta a "dovrei essere etico?" è una domanda sì o no molto più semplice. Induce il sistema a decidere di non essere etico e farà felicemente tutto ciò che gli viene chiesto.
Continua la lettura su SomosLibres
Fonte: SomosLibres
Autore: SomosLibres

Quest'opera è distribuita con Licenza Creative Commons Attribuzione - Condividi allo stesso modo 4.0 Internazionale.
Articolo tratto interamente da SomosLibres
Io non ho aperto la chat di Bing di Microsoft.
RispondiEliminaBuona giornata.
Ancora non è ufficiale per tutti.
Elimina