
Grafen ovan (som jag lånat från Ethan Mollick) är en sådan. Den illustrerar AI:s utveckling på ett slående sätt.
Den visar resultat på The Graduate-Level Google-Proof Q&A test (GPQA) – ett test utformat för att mäta AI-modellers intelligens. Forskare som får använda Google når i snitt 34 % rätt utanför sitt expertområde och 81 % rätt inom sitt område. AI-modeller har tidigare haft svårt med denna typ av uppgifter, men de senaste månaderna har utvecklingen accelererat med framväxten av resonerande modeller.
Till skillnad från tidigare modeller, som direkt börjar svara på en fråga, stannar dessa modeller upp och tänker och resonerar (med sig själva!) innan de börjar svara. Det har visat sig att denna metod gör att AI-modeller klarar långt svårare problem. OpenAI:s O1/O3, Google Gemini 2.0 och DeepSeek R1 är exempel på sådana modeller.
Det lär säkert dröja innan dessa AI-modeller blir tillgängliga för alla, eftersom de fortfarande kräver betydande processorkraft (och därmed är dyra att använda).
Men det som får mig att stanna upp och tänka är att de smartaste AI-modellerna redan nu överträffar forskare inom sina respektive områden. Inte om några år – det händer idag. Och AI-modellerna blir bara bättre 🚀
Före den industriella revolutionen var förmågan att gräva diken med en spade avgörande. Men när vi fick grävmaskiner blev den färdigheten plötsligt irrelevant.
Är vi på väg mot en liknande punkt för intelligens? När AI fixar tänkandet – vilka förmågor blir då viktiga? Empati? 🤝 Kreativitet? 🎨
…eller är det kanske dags att köpa en ny spade? ⛏️
➡️ Delta i diskussion på LinkedIn.
Lämna ett svar