Laster . . . LAGT

GPT-4: Hva du trenger å vite om den NYE ChatGPT

ChatGPT OpenAI

FAKTA-SJEKK GARANTI (Referanser): [Offisiell dokumentasjon: 1 kilde] [Fagfellevurderte forskningsartikler: 1 kilde] [Akademisk nettside: 1 kilde]

 | Av Richard Ahern - I fjor satte ChatGPT verden i brann som en av de mest avanserte AI-chatbotene som finnes, men nå har Elon Musks OpenAI hevet listen igjen.

Selv om du bor under en stein, har du sannsynligvis opplevd noe av spenningen rundt Open AIs chatbot, ChatGPT, som ble utgitt i november 2022.

Mens teknologiselskaper ofte fremhever de nye produktene sine som den «neste store tingen», snudde Open AIs gruppe av GPT-modeller for store språk hodene overalt.

På overflaten var det en tekstbasert messenger-tjeneste med en datamaskin som snakket tilbake i den andre enden. Den snakket ikke hørbart eller ga visuell tilbakemelding – den leste og spyttet ut tekstlinjer.

Så hvorfor ble folk forelsket i det?

Fordi det gjorde livet enklere, fikk den jobben gjort og gjorde det bra. Men det kommer selvfølgelig an på hva du bruker det til; det vil ikke vaske eller lage mat for deg - men det vil gi deg noen anstendige oppskriftsideer!

Men for forfattere og kodere er det der den skinner, be den om å skrive et dataprogram på et hvilket som helst språk, og det gjør en ganske imponerende jobb.

Dens unikhet ligger i måten du kan gi den svært forenklede eller uklare instruksjoner, og den vil ofte fylle ut de tomme feltene og gjøre de riktige forutsetningene.

For forfattere kan de kopiere og lime inn en tekstbit og be om å oppsummere den i ett avsnitt - ikke noe problem. Du kan bruke den som en grunnleggende stave- og grammatikkkontroll, men det er å kaste bort talentene. Ikke bare vil den rette opp feil og forbedre klarheten, akkurat som en hvilken som helst avansert AI-skriveassistent, men du kan også be den om å skrive om hele stykket ditt eller skrive det hele fra bunnen av (om du skulle være lat).

La oss ikke glemme…

Det har vært et dystert mareritt for lærere og sensorer da det åpnet en ny boks med ormer i kampen mot juks. Men det hjelper selvfølgelig ikke at OpenAI har testet GPT-ene ved å gi dem standard skoleeksamener, og som du vil se nedenfor, med bemerkelsesverdige resultater.

For å virkelig forstå kraften, må du eksperimentere selv, men i det hele tatt er utskriftskvaliteten imponerende, hovedsakelig fordi den kan produsere utvidede og detaljerte mengder innhold, ikke bare en setning eller to.

Men det var bare GPT-3.5...

I går kom nyheten om det GPT-4 er klar, og det er et helt nytt monster.

For det første kan den angivelig behandle bildeinnhold så vel som tekst, noe teknologimiljøet ba om. Sikkerhet ser ut til å være et fokuspunkt for GPT-4, med det "82 % mindre sannsynlighet for å svare på forespørsler om ikke-tillatt innhold."

I et nøtteskall, det er større ...

GPT-ene kalles store språkmodeller — de mates med gigantiske sett med data om et språk og bruker sannsynligheter for å forutsi rekkefølgen av ord. Ved å undersøke milliarder av parametere om strukturen til et språk, vil programmet se på et ord eller et sett med ord, beregne sannsynlighetene for hvilke ord som følger, og deretter velge den høyeste sannsynligheten.

Ta for eksempel setningen "Jeg løp opp ..." - ta deretter følgende ord, "hund", "ball", "trapper" eller "bakke."

Intuitivt vet vi at "hund" og "ball" ikke gir noen mening, men "trapper" og "bakke" er begge levedyktige valg. Imidlertid har et dyplæringsprogram ikke menneskelig intuisjon; den vil se på en stor mengde tekst og beregne sannsynlighetene for hvert ord etter setningen "Jeg løp opp ...".

La oss si at "hund" og "ball" forekommer mindre enn 0.001 % av gangene etter den setningen og si at "trapper" har 20 % sannsynlighet for å følge disse ordene, men "bakke" har 21 % sannsynlighet. Så maskinen vil velge "bakke" og gi ut: "Jeg løp opp bakken."

Kan det være feil? Selvfølgelig, men det har større sannsynlighet for å være korrekt, og jo mer data det har, jo mer nøyaktig blir det.

Det er ikke fullt så enkelt; Når modellen først har dataene, blir den testet og finjustert av menneskelige anmeldere for nøyaktighet og for å minimere "hallusinasjoner", tendensen til å produsere useriøst søppel - å velge feil ord!

GPT-4 er den største modellen til nå, i mange størrelsesordener, selv om det nøyaktige antallet parametere ikke er avslørt. Tidligere var GPT-3 over 100 ganger større enn GPT-2, med 175 milliarder parametere til GPT -2s 1.5 milliarder. Vi kan anta en tilsvarende økning med GPT-4. I tillegg vet vi at programmet har gjennomgått intens finjustering ved hjelp av forsterkning læring fra menneskelig tilbakemelding. Dette innebærer å spørre mennesker om å rangere chatbotens svar, og disse poengsummene blir matet tilbake for å "lære den" for å produsere bedre resultater.

Open-AI har vært hemmelighetsfull om GPT-4, med henvisning til «både konkurranselandskapet og sikkerhetskonsekvensene». Derfor er den nøyaktige modellstørrelsen, maskinvaren og treningsmetoder alle ukjente.

De har sagt dette:

"GPT-4 kan løse vanskelige problemer med større nøyaktighet, takket være sin bredere generelle kunnskap og problemløsningsevne." Det er 82 % mindre sannsynlighet enn GPT-3.5 å svare på forespørsler om forbudt innhold og 60 % mindre sannsynlighet for å finne på ting.

Her er den skumle delen:

GPT-4 gjorde det betydelig bedre enn de fleste menneskelige testtakere og GPT-3.5 på skoleeksamener. For eksempel, i Uniform Advokateksamen (jura), scoret den blant de øverste 90 %, sammenlignet med GPT-3.5, som scoret i den ynkelige 10. persentilen. I AP-statistikk, AP-psykologi, AP-biologi og AP-kunsthistorie (ekvivalenter på A-nivå i Storbritannia), scoret GPT-4 mellom 80. og 100. århundre – med andre ord, noen ganger slo alle!

Alt er ikke bra:

Interessant nok gjorde den det dårligste (8. til 22. centil) i engelsk litteratur og komposisjon og kunne vært mer imponerende i kalkulus (43. til 59. centil).

På Twitter demonstrerte noen mennesker hvordan GPT-4 gjorde et skriblet omriss av et nettsted på en serviett til en fullt funksjonell nettapplikasjon.

Totalt sett la OpenAI vekt på forbedret nøyaktighet og sikkerhet som de kritiske forbedringene av GPT-4. Det er langt mindre sannsynlighet for å svare på brukere som ber om instruksjoner for å lage en bombe, for eksempel. Den er også i stand til å håndtere mye lengre innhold enn forgjengeren, og behandler 25,000 1,500 ord sammenlignet med omtrent XNUMX XNUMX ord.

GPT-4 har blitt utpekt som mer "kreativ" enn før - ifølge OpenAI, "Den kan generere, redigere og iterere med brukere på kreative og tekniske skriveoppgaver, som å komponere sanger, skrive manus ..."

Til slutt, kanskje størst av alt, har den "visjon", å være i stand til å analysere og klassifisere innholdet i bilder.

AI har kommet, og enten du synes utviklingen er spennende eller skremmende, er det ingen tvil om at den er kommet for å bli. Selv om noen kan bekymre seg for å bli erstattet, vil de som omfavner potensialet bruke det som det kraftigste verktøyet som er tilgjengelig.

Vi trenger din hjelp! Vi gir deg de usensurerte nyhetene for GRATIS, men vi kan bare gjøre dette takket være støtten fra lojale lesere akkurat som DU! Hvis du tror på ytringsfrihet og liker ekte nyheter, kan du vurdere å støtte oppdraget vårt ved å å bli en beskytter eller ved å lage en engangsdonasjon her. 20% av ALLE midler doneres til veteraner!

Denne artikkelen er kun mulig takket være vår sponsorer og lånetakere!

Bli med på diskusjonen!
Bli medlem!
Varsle om
0 Kommentar
Inline tilbakemeldinger
Se alle kommentarer
0
Vil elske tankene dine, vennligst kommenter.x
()
x