Efter veckor av spekulationer och rykten har OpenAI officiellt lanserat sin nya AI-modell o1, tidigare känd under arbetsnamnet “Strawberry”. Den nya modellen är utformad för att resonera djupare och leverera mer metodiska svar, särskilt lämpad för att hantera komplicerade frågor inom ämnen som matematik, programmering, finans och fysik.
AI som tänker långsammare men djupare
En av de mest framträdande egenskaperna hos o1 är dess långsammare arbetsprocess jämfört med andra modeller, vilket möjliggör mer detaljerade och genomtänkta svar. OpenAI har jämfört o1:s förmåga med en filosofie doktor inom de ämnesområden den är specialiserad på, vilket gör den särskilt användbar för användare som söker lösningar på mycket komplexa problem. Även om den är långsammare är den ett komplement till GPT-4o-modellen, snarare än en ersättare.
Två nya versioner ChatGPT – o1 och o1-mini
Förutom huvudmodellen o1 har OpenAI också introducerat en snabbare, mer prisvärd variant kallad o1-mini, särskilt anpassad för programmeringsuppgifter. Denna modell är en lättare version av o1, men behåller en stark kapacitet för resonemang, dock med högre hastighet.
Begränsad tillgång i förhandsversion
Den nya o1-modellen finns tillgänglig i en förhandsversion för betalande användare av Chat GPT Plus och Team-tjänster. Förhandsanvändarna har dock en veckobegränsning på antalet meddelanden de kan skicka: 30 för o1 och 50 för o1-mini. OpenAI har antytt att o1-mini kan bli tillgänglig för gratisanvändare i framtiden, men något datum har ännu inte satts.
Positiva första intryck
Flera medier har redan testat den nya modellen, och enligt tidiga rapporter från tidningen Breakit presterar o1 imponerande, särskilt i att skriva mer välformulerade och djupgående texter jämfört med tidigare modeller. Det återstår att se hur användarna kommer att ta emot o1, men de första indikationerna är positiva.
Vad OpenAI själva säger om modellen o1 ”Strawberry”
Nedan följer en översättning på vad OpenAI har för åsikt om deras senaste AI-modell ”Strawberry”:
”Vi har tränat dessa modeller att lägga mer tid på att tänka igenom problem innan de svarar, ungefär som en människa skulle göra. Genom träningen lär de sig att finslipa sin tankegång, prova olika strategier och känna igen sina misstag.
I våra tester presterade den senaste modelluppdateringen på samma nivå som doktorander i utmanande uppgifter inom fysik, kemi och biologi. Vi upptäckte också att den är exceptionellt bra på matematik och programmering.
I en kvalificeringstävling för den internationella matematikolympiaden (IMO) löste GPT-4o bara 13 % av problemen korrekt, medan resonemangsmodellen klarade 83 %. Deras kodningsförmågor utvärderades i tävlingar och nådde 89:e percentilen i Codeforces-tävlingar.”