Du åpener Open Ai sin GPT-3 på Mac’en din og skriver:
Q: Kan du skrive en tekst om merkevarebygging?
Q: Ønsker at teksten skal være perfekt for SEO
Q: Kan du også bruke det nøkkelordet som har flest søk?
Ut kommer en helt perfekt SEO optimalisert tekst med nøkkelordet “branding”
Hvorfor “branding”? Jo for det har 250 flere søk i måneden enn “merkevarebygging”.
Q= Question
La oss ta det opp et ekstra hakk. Hva om du kunne bruke en AR app på telefonen din og filme en bok, på sekunder lager den et dikt av teksten du leser og viser denne nederst i boken. Du kan se video her.
Dette høres nok for mange ut som fremtiden, men denne teknologien finnes og det har den gjort siden 27. April 2016 (beta). Etter 5 års opplæring, begynner teknologien å bli skremmende.
Vi ser nærmere på hva Open Ai sin GPT-3 kan gjøre litt lengre ned i innlegget.
Hva er Open AI’s GPT-3?
GPT-3 står for “Generation Pre-Trained Transformer v3”.
Open AI er et selskap som ble startet av Elon Musk og Sam Altman tilbake i 2015. Med en Startkapitalen på $1 Milliard, hadde de godt med midler til å forkse på kunstig intelligens. De startet med å laste ned hele internett, for så å trene sin GPT-3 på alle tenkelige oppgaver.
I 2019 mottok Open AI enda en milliard dollar og denne gangen fra Microsoft, for å forske videre på hva de kan gjøre med teknologien.
Open AI’s GPT-3 kommer “trent” i 8 forskjellige størrelser og rangerer fra 125 millioner til 178 milliarder parametere. Den største GPT-3-modellen er større enn den forrige rekordinnehaveren, T5-11B. Den minste GPT-3-modellen er omtrent på størrelse med BERT-Base og RoBERTa-Base.
GPT-3 lærer av seg selv på en helt ny måte
Lambda GPU cloud har estimert hvor lang tid det ville tatt å trene opp Open AI’s GPT-3 på deres GPU cloud og de kom selv frem til 355 år.
Algoritmen til GPT-3 har brukt et kjent spill som heter Dota 2 som base. Dette spillet gjør at spillere kan spille 5 mot 5 og har vært svært populært på streaming plattformen Twitch.
Spillet hadde en støtte for Linux og et grensesnitt for API, som gjorde det til den perfekte basen for GPT-3. Open Ai kaller systemet de har laget for «reinforcement learning» altså forsterket læring. Dette gir mening i og med at GPT-3 sine bots “spiller” mot seg selv hundrevis av ganger om dagen.
I juni 2018 kom et stort gjennombrudd, da Open AI hadde klart å få botene til å spille på lag sammen 5 og 5.
Bare det å trene Open AI’s Dota 2-bots sommeren 2018 krevde å leie 128.000 CPUer og 256 GPUer fra Google i flere uker.
Så hva kan vi gjøre med GPT-3?
Det gjør oss ikke arbeidsledig nå, men det har allerede begynt å gjøre oss mer effektive.
Akkurat nå må man sette seg på venteliste for å få tilgang til API’et, men sannsynligvis vil det åpnes for de fleste relativt snart.
Det er allerede utviklet apper og plug-ins til flere forskjellige webapplikasjoner.
Eksempelvis har wordpress, et system vi er veldig godt kjent med laget en AI content bot.
Bubble som er en “No-Code” plattform til å lage webapplikasjoner med, har fått en egen plugin som man kan tilpasse. Skal man tilpasse GPT-3 krever det at man kan litt av kodespråket Python. Noe du forsåvidt kan få GPT-3 til å skrive for deg.
Så vidt vi vet snakker ikke GPT-3 Norsk enda, men vi vet at den snakker blant annet Fransk, Russisk og Japansk. Den skal være veldig nøyaktig i oversetting også.
Eksempler på apper laget med Open Ai’s GPT-3
– Scanning av matvarer og få en forklaring på alle ingredienser
– Designverktøyet Figma har en plugin som kan lage design for deg, selv klone Facebook om du vil: Se her
– Det er laget apper for React (javascript bibliotek) som skriver kode for det du ønsker å lage: Se her
– Automatisere budskap til annonser
– Lage innhold til nettsider: Les her
Dette er bare noen få eksempler på hva som er laget og mye mer kommer til å bli laget i nær fremtid.
Her kan du selv prøve en app du kan spørre om hva som helst.
Vi konkurrerer ikke på samme vilkår
De største selskapene i verden «jukser» og vi klarer med liten sannsynlighet å ta de igjen.
Google lastet ned hele internett i 1998, det samme som Open AI gjorde i 2015. Vi vet at Google ble et “AI first” selskap i 2017 der de annonserte Google AI. Dette er en AI som Google selv har sagt at er 6 ganger større enn Open AI, og den blir trent på 1 trillion parametere.
Her er noen prosjekter fra Google som bruker veldig avansert AI eller Deep learning som Google kaller det.
Kunnskap om teknologien som skapes vil alltid gi muligheter, så lenge vi åpner øynene våre og forstår hva som foregår.
Avslutningsvis så vil jeg at du skal se for deg følgende: Google lastet ned hele internett i 1998, etter det har de fått all informasjon fra internett inn i serverne sine. Når skrev Google sin første AI algoritme? Hvor mye av innholdet til Google er skrevet av roboter? Hvilke oppgaver har de automatisert som er umulig å gjennomføre for den gjennomsnittlige bedriften?
Bare se hvor mange nye blogger og nyheter som kommer ut raskere enn aldri før. Plutselig dukker det opp en ny nettside med millioner av artikler, og det ser ut som at de har skrevet innhold i årevis.
Ønsker du å ha en engasjerende prat om tekenologi og markedsføring med Evolve? Du kan ta kontakt her.