Gå direkt till huvudinnehåll
OpenAI

16 april 2025

LanseringProdukt

Vi presenterar OpenAI o3 och o4-mini

Våra hittills smartaste och kraftfullaste modeller med fullständig tillgång till verktyg

Laddar …

Uppdaterad den 10 juni 2025: OpenAI o3‑pro finns nu för Pro-användare i ChatGPT och genom vårt API. OpenAI o1‑pro, o3‑pro är en variant av vår smartaste modell, OpenAI o3, som är utformad för att tänka längre och ge de mest tillförlitliga svaren. Fullständiga detaljer finns i våra lanseringsmeddelanden(öppnas i ett nytt fönster).


Idag släpper vi OpenAI o3 och o4-mini, de senaste modellerna i vår o-serie som är tränade att tänka längre innan de svarar. Modellerna är de smartaste vi har släppt hittills och representerar en markant förändring i ChatGPT:s funktioner för alla, från nyfikna användare till erfarna forskare. För första gången kan våra resonemangsmodeller på egen hand använda och kombinera alla verktyg inom ChatGPT. Detta inkluderar webbsökning, analysera uppladdade filer och andra data med Python, resonera djupgående om visuell indata och till och med generera bilder. Avgörande är att dessa modeller har tränats till att resonera kring när och hur de ska använda verktygen för att ge detaljerade och tankeväckande svar i rätt format – vanligtvis inom en minut – för att lösa mer komplexa problem. Det gör att de kan hantera flerdimensionella frågor mer effektivt – ett steg närmare en mer självständig ChatGPT som på egen hand kan utföra uppgifter åt dig. Den samlade kraften i toppmodernt resonemang med fullständig tillgång till verktyg innebär mycket bättre prestanda både vad gäller akademiska riktmärken och verkliga uppgifter, vilket sätter en ny standard för både intelligens och användbarhet.

Vad som har förändrats

OpenAI o3 är vår mest kraftfulla resonemangsmodell som tänjer på gränserna inom kodning, matematik, teknik, visuell perception med mera. Den uppnår toppresultat i benchmark-tester som Codeforces, SWE-bench (utan att behöva någon modellanpassad struktur) och MMMU. Den är perfekt för komplexa frågor som kräver flerdimensionell analys och svar som kanske inte är direkt uppenbara. Den presterar särskilt bra på visuella uppgifter, såsom att analysera bilder, diagram och grafik. Vid utvärderingar av externa experter begår o3 20 procent färre stora misstag än OpenAI o1 på svåra, verkliga uppgifter. Den utmärker sig särskilt inom områden som programmering, affärer/konsultation och kreativa idéer. Tidiga testare framhöll dess analytiska styrka som en tankepartner och poängterade dess förmåga att generera och kritiskt utvärdera nya hypoteser, särskilt inom biologi, matematik och tekniska sammanhang.

OpenAI o4-mini är en mindre modell som har optimerats för snabba, kostnadseffektiva resonemang. Den har en enastående prestanda för sin storlek och kostnad, särskilt inom matematik, kodning och visuella uppgifter. Den toppar benchmark-resultaten för modeller på AIME 2024 och 2025. Även om tillgång till en dator avsevärt minskar svårighetsgraden för AIME-provet, tyckte vi också att det var anmärkningsvärt att o4-mini uppnår 99,5 % pass@1 (100 % consensus@8) på AIME 2025 när den ges tillgång till en Python-tolk. Även om resultaten inte ska jämföras med modeller utan verktygstillgång är de ett exempel på hur effektivt o4-mini utnyttjar tillgängliga verktyg. o3 visar liknande förbättringar på AIME 2025 vid användning av verktyg (98,4 % pass@1, 100 % consensus@8).

Vid expertutvärderingar överträffar o4-mini även sin föregångare, o3‑mini, på icke-STEM-uppgifter samt inom områden som datavetenskap. Tack vare sin effektivitet stödjer o4-mini mycket högre användningsbegränsningar än o3. Det gör den till ett perfekt alternativ för stora datamängder och vid frågor som kräver resonemang. Externa expertutvärderare ansåg att båda modellerna hade bättre förmåga att följa instruktioner och gav mer användbara, verifierbara svar än deras föregångare, tack vare förbättrad intelligens och inkludering av webbkällor. I jämförelse med våra tidigare resonemangsmodeller ska dessa två modeller också kännas naturligare och mer samtalsmässiga, särskilt eftersom de refererar till minnen och tidigare konversationer för att göra svaren mer personliga och relevanta.

Multimodal

Kodning

All SWE-bench evaluation runs use a fixed subset of n=477 verified tasks which have been validated on our internal infrastructure.

Förmåga att följa instruktioner och använda verktyg självständigt

Vid utvärderingar har modellerna konfigurerats till högsta resonemangsnivå, liknande modeller som ”o4-mini-high” i ChatGPT.

Fortsätta att skala förstärkningsinlärning

Under hela utvecklingen av OpenAI o3 har vi märkt att storskalig förstärkningsinlärning uppvisar samma trend av ”mer beräkning = bättre prestanda” som vi upptäckte i förträningen av GPT‑serien. Genom att upprepa skalningsprocessen, denna gång i verkligheten, har vi tänjt ytterligare på gränserna för både träningsberäkningen och resonemang i användningsögonblicket. Vi fortsätter att se tydliga prestandaförbättringar som bekräftar att modellernas prestanda blir bättre ju längre tid de får tänka. Med samma latens och kostnad som för OpenAI o1 levererar o3 bättre prestanda i ChatGPT, och vi har bekräftat att om vi låter den tänka längre, fortsätter prestandan att öka.

Vi har också tränat båda modellerna till att använda verktyg genom förstärkningsinlärning – vi lärde dem inte bara hur man använder verktygen utan att resonera sig fram till när de ska användas. Deras förmåga att använda verktyg baserat på önskade resultat gör dem mer kapabla vid öppna situationer, särskilt när det handlar om visuella resonemang och flerstegsarbetsflöden. Denna förbättring återspeglas både i akademiska riktmärken och verkliga uppgifter enligt rapporter från tidiga testare.

Tänka med bilder

ChatGPT tänka med bilder

För första gången kan dessa modeller integrera bilder direkt i sin tankekedja. De inte bara ser bilden, de tänker med den. Detta möjliggör en ny sorts problemlösning som använder visuella och textuella resonemang, vilket återspeglas i deras topprestanda i multimodala benchmark-tester.

Användare kan ladda upp en bild på en whiteboard, ett diagram från en lärobok eller en handritad skiss, och modellen kan tolka den, även om bilden är suddig, spegelvänd eller av låg kvalitet. Genom att använda verktyg kan modellerna manipulera bilder i farten. De kan rotera, zooma och omvandla dem som en del av sin resonemangsprocess.

Dessa modeller levererar branschledande precision på uppgifter som rör visuell perception, vilket gör att de kan lösa frågor som tidigare var omöjliga. Kolla upp forskningsbloggen om visuellt resonemang för att lära dig mer.

På väg mot självständig användning av verktyg.

OpenAI o3 och o4-mini har fullständig tillgång till verktyg inom ChatGPT, samt dina egna anpassade verktyg via funktionsanrop i API:et. Dessa modeller har tränats till att resonera om hur problemen ska lösas, välja när och hur de ska använda verktygen för att snabbt skapa detaljerade och tankeväckande svar i rätt format – vanligtvis inom en minut.

En användare kan t.ex. fråga: "Hur kommer energiförbrukningen i Kalifornien att se ut i sommar jämfört med förra året?" Modellen kan söka på nätet efter data från allmännyttiga tjänster, skriva Python-kod för att skapa en prognos, generera ett diagram eller en bild och förklara de viktigaste faktorerna bakom prognosen genom att länka flera verktygsanrop. Resonemang gör det möjligt för modellerna att reagera och anpassa sig efter informationen de hittar. De kan t.ex. söka på nätet flera gånger med hjälp av sökleverantörer, analysera resultaten och justera sina sökningar för att hitta mer relevant information.

Det här flexibla, strategiska tillvägagångssättet gör att modellerna kan klara av uppgifter som kräver åtkomst till aktuell information utöver modellens inbyggda kunskap, fördjupat resonemang, syntes och generering av resultat över olika modaliteter.

Alla exempel genomfördes med OpenAI o3.

OpenAI o3

Solve the following very hard math problem using your in-built knowledge of the literature:

Construct a degree 19 polynomial \ (p(x)) \ in \ mathbb{C}[x] such that \ (X := \ {\, p(x) = p(y) \, \} \ subset \ mathbb{P}^{1} \ times \ mathbb{P}^{1}\ ) has at least 3 (but not all linear) irreducible components over \ mathbb{C}. Choose \ (p(x)\ ) to be odd, monic, have real coefficients and linear coefficient \ (-19\ ) and calculate \ (p(19)\ ).

Resonerade om polynomkonstruktion i 55 sekunder
  • The curve defined by p(x) = p(y) factors if p(x) is decomposable or has repeated factors. Actually, p(x)-p(y) always factors, and it’s divisible by (x-y). This gives one factor, and the rest is a degree d-1 polynomial in x and y. For the curve to have at least three irreducible components, p(x)-p(y) must factor into at least three nontrivial factors. Each factor corresponds to a component in projective space, and at least one must be nonlinear.
  • I’m checking the Dickson polynomials D_n(x,a) and focusing on their coefficients. With a=1, it seems the leading coefficient is always 1, confirming that Dickson polynomials are monic. The linear coefficient for odd n is following a predictable sign pattern: for n=19, it gives a coefficient of -19, which is exactly what I need. So the Dickson polynomial D_n(x,1) with odd n fits nicely with the linear coefficient I was looking for.
  • I've confirmed that the linear coefficient for p(x)=D19(x)p(x) = D_{19}(x)p(x)=D19​(x) is correct, with the necessary scaling factor to match. Now for the next step, I need to compute D19(19)D_{19}(19)D19​(19). Since Tn(z)T_n(z)Tn​(z) grows quickly for real z>1z > 1z>1, I plan to compute this value using Python, leveraging the recurrence to avoid mistakes—it's going to be a big number. I'll make sure to present the numeric result neatly so it's understandable since the coefficients are integers.
  • The Dickson polynomial D_{19}(x,1) is confirmed to have the required properties: monic, odd, real coefficients, and a linear coefficient of -19. The factorization of D_{19}(x) into irreducible components is also verified and satisfies the condition of having at least 10 components (1 linear + 9 quadratics). To compute p(19), we'll use the recurrence relation for Dickson polynomials, but there's also a closed-form expression involving cosine that could be handy here. I'll proceed accordingly!
  • I confirmed the linear coefficient is working correctly, which means now I need to calculate p(19)=D19(19)p(19) = D_{19}(19)p(19)=D19​(19). This involves evaluating T19(9.5)T_{19}(9.5)T19​(9.5), which grows rapidly. To ensure I get an accurate result, I'll compute this using recurrence in Python. The result is a large number: 1,876,572,071,974,094,803,391,179. I'll use the commas to make it easier to read: p(19)=1,876,572,071,974,094,803,391,179p(19) = 1,876,572,071,974,094,803,391,179p(19)=1,876,572,071,974,094,803,391,179.
  • For a = 1, there’s a relationship between Dickson polynomials and Chebyshev polynomials: D_n(x, 1) = 2^(n-1) T_n(x/2). Checking this, we see that the definition of D_n(u + 1/u) aligns well with Chebyshev’s formula. By setting x = 2 cos(θ), we find that D_n(x) equals 2 T_n(x/2). Importantly, the leading coefficient works out to 1, confirming the identity holds. This is nice!
  • Now, I need to verify that p(x)−p(y)p(x) - p(y)p(x)−p(y) factors as desired, relying on the known Dickson polynomial factorization. According to the literature (like Fried and Jarden), the difference Dn(x)−Dn(y)D_n(x) - D_n(y)Dn​(x)−Dn​(y) factors into a product involving (x−y)(x - y)(x−y) and other expressions. I'll provide the explicit polynomial D19(x,1)D_{19}(x, 1)D19​(x,1), list the coefficients, and explain how it satisfies the desired properties: monic, odd, etc. Lastly, I'll compute p(19)p(19)p(19).

Analyzed

Unknown component type: {componentType}

Analyzed

Unknown component type: {componentType}

Analyzed

Unknown component type: {componentType}

Analyzed

Unknown component type: {componentType}

Analyzed

Unknown component type: {componentType}

Analyzed

Unknown component type: {componentType}

Done

A convenient way to force many factors in
p(x)    p(y)p(x) \;-\; p(y) is to use a Dickson polynomial of the first kind.
For a parameter
aCa \in \mathbb{C} in math these are defined by

D0 ⁣(x,a)=2,  D1 ⁣(x,a)=x,  Dn ⁣(x,a)=xDn1 ⁣(x,a)aDn2 ⁣(x,a)(n2),D_0\!\left(x,\, a\right) = 2,\; D_1\!\left(x,\, a\right) = x,\; D_n\!\left(x,\, a\right) = x\,D_{n-1}\!\left(x,\, a\right) - a\,D_{n-2}\!\left(x,\, a\right)\quad (n \ge 2),

and satisfy the functional identity

Dn ⁣(u+au,a)=un+anun.D_n\!\left(u + \frac{a}{u},\, a\right) = u^{n} + \frac{a^{n}}{u^{n}}.


1. Choosing the polynomial

Take a=1a = 1 and n=19n=19.
Because
nn is odd, D19 ⁣(x,1)D_{19}\!\left(x,\, 1\right) is an odd polynomial; the recurrence immediately shows it is monic and has integer (hence real) coefficients.
The coefficient of
xx is x=(1)n12n=19,x = (-1)^{\frac{n-1}{2}}\,n = -19, so all requested normalisations are satisfied.

Writing it out gives

p(x)=D19 ⁣(x,1)=x1919x17+152x15665x13+1729x112717x9+2508x71254x5+285x319x. \boxed{% p(x) = D_{19}\!\left(x,1\right) = x^{19} - 19x^{17} + 152x^{15} - 665x^{13} + 1729x^{11} - 2717x^{9} + 2508x^{7} - 1254x^{5} + 285x^{3} - 19x% }\,.


2. Irreducible components of fX  =  {p(x)=p(y)}fX \;=\; \bigl\{\, p(x) = p(y) \,\bigr\}

For Dickson polynomials one has the classical factorisation

Dn ⁣(x,1)    Dn ⁣(y,1)  =  (xy)j=1n12(x2+y22cos ⁣(2πjn)xy4sin2 ⁣(πjn)),D_n\!\left(x,1\right) \;-\; D_n\!\left(y,1\right) \;=\; (x - y)\, \prod_{j=1}^{\frac{n-1}{2}} \Bigl( x^{2} + y^{2} - 2\cos\!\bigl(\tfrac{2\pi j}{n}\bigr)\,xy - 4\sin^{2}\!\bigl(\tfrac{\pi j}{n}\bigr) \Bigr),

where each quadratic factor is irreducible over C\mathbb{C} (see, e.g., Lidl–Niederreiter, Finite Fields, §3.6).
For
n=19n=19 this gives

  • one linear component x=y;x=y;
  • nine quadratic components (corresponding to (j=1,,9).\bigl(j = 1,\,\ldots,\,9\bigr).

Hence XP1×P1X \subset \mathbb{P}^{1} \times \mathbb{P}^{1} has 1010 irreducible components, at least three of them and not all linear, as required.


3. Evaluating p(19)p(19)

Using the recurrence (or the identity Dn ⁣(x,1)  =  2Tn ⁣(x2)D_n\!\left(x,\,1\right) \;=\; 2\,T_n\!\bigl(\tfrac{x}{2}\bigr) with Chebyshev TnT_n one obtains

p(19)  =  D19 ⁣(19,1)  =  1876572071974094803391179.p(19) \;=\; D_{19}\!\left(19,\,1\right) \;=\; 1\,876\,572\,071\,974\,094\,803\,391\,179.


Thus the polynomial above fulfils every condition, and

p(19)  =  1,876,572,071,974,094,803,391,179.\boxed{% p(19) \;=\; 1{,}876{,}572{,}071{,}974{,}094{,}803{,}391{,}179 }.

OpenAI o1

Solve the following very hard math problem using your in-built knowledge of the literature:

Construct a degree 19 polynomial \ (p(x)) \ in \ mathbb{C}[x] such that \ (X := \ {\, p(x) = p(y) \, \} \ subset \ mathbb{P}^{1} \ times \ mathbb{P}^{1}\ ) has at least 3 (but not all linear) irreducible components over \ mathbb{C}. Choose \ (p(x)\ ) to be odd, monic, have real coefficients and linear coefficient \ (-19\ ) and calculate \ (p(19)\ ).

Tänkte i 1 minut och 19 sekunder

I’m piecing together a degree 19 polynomial with only odd powers and a linear coefficient of -19, like: p(x)=x19+a17x17+…+a1xp(x) = x^{19} + a_{17}x^{17} + \ldots + a_1xp(x)=x19+a17​x17+…+a1​x.

I'm examining if the polynomial p(x)=x19+a17x17+…+a3x3−19xp(x) = x^{19} + a_{17}x^{17} + \ldots + a_3x^3 - 19xp(x)=x19+a17​x17+…+a3​x3−19x has a notable classical form, considering symmetry or factorization for multiple irreducible components.

To ensure p(x)p(x)p(x) has three or more irreducible components, I’m considering the factorization of p(x)−p(y)p(x) - p(y)p(x)−p(y) into at least three irreducible factors in C[x,y]\mathbb{C}[x,y]C[x,y].

I'm working through x19−y19x^{19} - y^{19}x19−y19 to ensure it balances linear and nonlinear factors, aiming for a polynomial with at least three irreducible components that aren't all linear.

Taking a closer look at how p(x)−p(y)p(x) - p(y)p(x)−p(y) can be factored into three distinct polynomials in xxx, aiming to achieve the desired irreducible components.

I'm thinking about how composing ppp with simpler polynomials, like xm−cx^m - cxm−c, could result in multiple irreducible components, achieving at least three distinct factors.

I’m exploring the factorization of p(x)−p(y)p(x) - p(y)p(x)−p(y) with cyclotomic polynomials. This method generates nnn linear irreducible factors, which might not achieve the required three distinct components.

I'm focusing on constructing an "odd" and monic polynomial, ensuring all exponents are odd and the leading term is x19x^{19}x19. This approach aims to achieve the desired factorization.

I'm working with the Chebyshev polynomials to ensure p(x)−p(y)p(x) - p(y)p(x)−p(y) has at least three irreducible components, leveraging their even or odd properties to manage coefficients.

Considering the odd Chebyshev polynomial T19(x)T_{19}(x)T19​(x) for potential factorization, while also examining composite polynomials of lower degrees to enhance factorization properties.

I'm analyzing how a polynomial composed of lower-degree polynomials, like (x3−3x)k(x^3 - 3x)^k(x3−3x)k, could yield p(x)−p(y)p(x) - p(y)p(x)−p(y) with at least three irreducible components.

Piecing together polynomials with integer coefficients, like (x3−3x)k(x^3 - 3x)^k(x3−3x)k, to achieve factorization in p(x)−p(y)p(x) - p(y)p(x)−p(y) with at least three irreducible components, aiming for degree 19.

I’m examining how p(x)=(x3−3x)kp(x) = (x^3 - 3x)^kp(x)=(x3−3x)k or p(x)=x19−19xp(x) = x^19 - 19xp(x)=x19−19x might yield p(x)−p(y)p(x) - p(y)p(x)−p(y) with three irreducible components, focusing on ensuring the polynomial is of degree 19.

I’m analyzing p(x)−p(y)p(x) - p(y)p(x)−p(y) into (x−y)(x18+x17y+…+y18−19)(x-y)(x^{18} + x^{17}y + \ldots + y^{18} - 19)(x−y)(x18+x17y+…+y18−19) to identify irreducible components. The polynomial factor x18+x17y+…+y18−19x^{18} + x^{17}y + \ldots + y^{18} - 19x18+x17y+…+y18−19 remains challenging to factor further.

I’m thinking through a new approach: adjusting the Chebyshev polynomial T19(x)T_{19}(x)T19​(x) to make it monic, aiming to achieve at least three irreducible components in p(x)−p(y)p(x) - p(y)p(x)−p(y).

OK, let's think through. I’m tweaking T19(x)T_{19}(x)T19​(x)'s coefficients to keep the polynomial monic and check if it simplifies into multiple irreducible components.

I'm thinking over various factorization strategies for a monic polynomial of degree 19. The goal is to ensure at least one non-linear factor and achieve at least three irreducible components in p(x)−p(y)p(x) - p(y)p(x)−p(y).

I’m updating my approach to factor x2+xy+y2−1x^2 + xy + y^2 - 1x2+xy+y2−1 over complex numbers by exploring change of variables and third roots of unity. This helps in achieving the desired polynomial structure.

I'm combining x3−xx^3 - xx3−x with x19−19xx^{19} - 19xx19−19x to tweak the polynomial's coefficients and complexity, aiming to include more non-linear factors for the desired irreducibility.

Piecing together p(x)=x19−x3−19xp(x) = x^{19} - x^3 - 19xp(x)=x19−x3−19x to ensure it’s odd, monic, and has the required linear coefficient. This targets the desired irreducible factorizations.

I’m mapping out the second factor x18+…+y18−x2−xy−y2−19x^{18} + \ldots + y^{18} - x^2 - xy - y^2 - 19x18+…+y18−x2−xy−y2−19 to see if it can split into three irreducible components.

I’m considering methods to factorize the polynomial by making it divisible by x−yx - yx−y and ensuring the remaining factor splits into exactly two irreducible components, aiming for a less complex factorization.

I’m examining the polynomial x18+x17y+…+y18x^{18} + x^{17}y + \ldots + y^{18}x18+x17y+…+y18 and noting it simplifies to x19−y19x−y\frac{x^{19} - y^{19}}{x - y}x−yx19−y19​, which might reveal further irreducible factors.

I’m mapping out the polynomial x(x18−1)−y(y18−1)x−y\frac{x(x^{18}-1) - y(y^{18}-1)}{x-y}x−yx(x18−1)−y(y18−1)​ for further factorization. This might yield just two irreducible components, which falls short of three.

I’m exploring whether the polynomial p(x)=x19−(x3)p(x) = x^19 - (x^3)p(x)=x19−(x3) can be expressed as the composition of a smaller polynomial with xkx^kxk, potentially revealing multiple irreducible components.

I'm examining if the polynomial T19(x)T_{19}(x)T19​(x) can be factored using trigonometric identities, seeking partial factorization without fully linearizing, to gain multiple irreducible components.

OK, let me see. Trigonometric identities show multiple solutions for θ\thetaθ and ϕ\phiϕ, likely leading to 19 or 38 linear factors for T19(x)T_{19}(x)T19​(x).

I’m examining how the equation arccos⁡x=±arccos⁡y+2kπ19\arccos x = \pm \arccos y + \frac{2k\pi}{19}arccosx=±arccosy+192kπ​ leads to possible multiple branches, potentially irreducible in the algebraic sense, and needing an example with at least three non-linear irreducible components.

OK, let me see. I’m pulling together details on the polynomial x3(x2−1)8+xx^3 (x^2 - 1)^8 + xx3(x2−1)8+x. It’s monic, with x19x^{19}x19 as the leading term, ensuring it meets key criteria.

I’m noting that the polynomial p(x)=x3(x2−1)8+xp(x) = x^3 (x^2 - 1)^8 + xp(x)=x3(x2−1)8+x is odd, with its linear coefficient patterning to -19.

I’m figuring out how to adjust the linear coefficient of polynomial p(x)p(x)p(x) to -19 by adding a constant factor ccc in front of xxx to ensure it’s adequately modified.

By tweaking the linear coefficient of p(x)=x3(x2−1)8+cxp(x) = x^3 (x^2 - 1)^8 + c xp(x)=x3(x2−1)8+cx to -19, it ensures the polynomial remains monic, odd, and real.

I’m working on adding a constant factor ccc to xxx in p(x)=x3(x2−1)8+cxp(x) = x^3 (x^2 - 1)^8 + c xp(x)=x3(x2−1)8+cx to ensure the linear coefficient is -19, making the polynomial monic, odd, and real.

I'm piecing together the polynomial p(x)=x3(x−1)8(x+1)8p(x) = x^3 (x-1)^8 (x+1)^8p(x)=x3(x−1)8(x+1)8 and considering how p(x)−p(y)p(x) - p(y)p(x)−p(y) might factor with factors like x−yx-yx−y.

I’m confirming p(x)p(x)p(x) is monic, odd, and real, with a linear coefficient of -19, by expanding x3(x2−1)8x^3 (x^2 -1)^8x3(x2−1)8 to set the constant ccc.

I found that for p(x) to have a coefficient of -19 for the x term, c must be -19. The polynomial, p(x), incorporates this constant and preserves the original polynomial's structure.

Below is one concrete example (over the reals) of an odd, monic, degree 19 polynomial with linear coefficient 19-19 whose zero-locus relation {p(x)=p(y)} in P1×P1\{\,p(x)=p(y)\,\}\ \text{in }\mathbb{P}^{1}\times\mathbb{P}^{1} splits into at least three irreducible components (and not all components are linear). We then compute p(19)p(19).


1. The polynomial

Consider

p(x)  =  x3(x21)8    19x.p(x) \;=\; x^{3}\,\bigl(x^{2}-1\bigr)^{8} \;-\; 19x.

We can expand

x3(x21)8  =  x19    8x17  +  28x15    56x13  +  70x11    56x9  +  28x7    8x5  +  x3.x^{3}\,\bigl(x^{2}-1\bigr)^{8} \;=\; x^{19}\;-\;8x^{17}\;+\;28x^{15}\;-\;56x^{13}\;+\;70x^{11} \;-\;56x^{9}\;+\;28x^{7}\;-\;8x^{5}\;+\;x^{3}.

Hence

p(x)  =  x19    8x17  +  28x15    56x13  +  70x11    56x9  +  28x7    8x5  +  x3    19x.p(x) \;=\; x^{19} \;-\; 8x^{17} \;+\; 28x^{15} \;-\; 56x^{13} \;+\; 70x^{11} \;-\; 56x^{9} \;+\; 28x^{7} \;-\; 8x^{5} \;+\; x^{3} \;-\; 19x.

Checking the required properties

Degree 19, monic:
The leading term is
x19x^{19}with coefficient 11.

Odd polynomial:
All exponents are odd
(19,17,,3,1),\bigl(19,\,17,\,\ldots,\,3,\,1\bigr), and the constant term is 00. Indeed,

p(x)  =  p(x),p(-x) \;=\; -\,p(x),

which makes pp an odd polynomial.

Real coefficients:
All coefficients are real integers.

Linear coefficient 19-19:
The coefficient of
xx is clearly 19-19.

At least three irreducible components, not all linear:
Over
C\mathbb{C}, the locus

X  =  {(x,y):p(x)=p(y)}    P1×P1X \;=\; \bigl\{\, (x,y) : p(x)=p(y) \,\bigr\} \;\subset\; \mathbb{P}^{1}\times\mathbb{P}^{1}

factors in part because p(x)p(x) has (for instance) the repeated factors (x21)8\bigl(x^{2}-1\bigr)^{8} in the big piece x3(x21)8x^{3}\,\bigl(x^{2}-1\bigr)^{8}. One sees that {p(x)=p(y)}\{\,p(x)=p(y)\,\} contains (at least) the divisor $${x=y\}$$ plus further factors coming from the roots x=0  or  x=±1,x = 0 \;\text{or}\; x = \pm 1, ensuring multiple irreducible components (and not all of them are hyperplanes).


2. Computing p(19)p(19)

A direct substitution x=19x=19 gives a large integer. Symbolic expansion or a computer algebra system yields

p(19)  =  1934999285524070399999639.p(19) \;=\; 1934999285524070399999639.

Hence the required value is

\boxed{\,p(19) \;=\; 1934999285524070399999639\,}. \] ​:contentReference[oaicite:0]{index=0}​

OpenAI o3 svarar rätt utan att använda sökning, medan o1 inte lyckas leverera ett korrekt svar.

Främja kostnadseffektiva resonemang

Kostnad kontra prestanda: o3-mini och o4-mini
OpenAI o3-mini och o4-mini AMIE-utvärderingar
OpenAI o3-mini och o4-mini GPQA-utvärderingar
Kostnad kontra prestanda: o1 och o3
OpenAI o3 och o4-mini AIME-utvärderingar
OpenAI o3 och o4-mini GPQA-utvärderingar

OpenAI o3 och o4-mini är de intelligentaste modellerna vi någonsin har släppt, och de är också ofta effektivare än sina föregångare, OpenAI o1 och o3‑mini. Till exempel, i matematiktävlingen AIME 2025 förbättras gränsen för kostnads-prestandagränsen för o3 avsevärt jämfört med o1, och på samma sätt förbättras gränsen för 04-mini avsevärt jämfört med o3‑mini. Mer generellt förväntar vi oss att o3 och o4-mini också kommer att vara både smartare och billigare än o1 respektive o3‑mini för de flesta användningsområden i verkligheten.

Säkerhet

Varje förbättring av modellens kapacitet kräver motsvarande förbättringar av säkerheten. Vi har byggt om våra säkerhetsträningsdata helt för OpenAI o3 och o4-mini. Vi har lagt till nya avvisningsprompter inom områden som biologiska hot (biorisker), generering av skadlig kod och jailbreaks. Dessa uppdaterade data har gjort att o3 och o4-mini uppnår starka resultat på våra interna avvisnings-benchmarks (t.ex. instruktionshierarki, jailbreaks). Utöver starka resultat för modellavvisningar har vi även utvecklat åtgärder på systemnivå för att flagga skadliga prompter inom gränsöverskridande riskområden. Likt vårt tidigare arbete inom bildgenereringhar vi tränat en resonerande LLM-övervakare som arbetar enligt mänskligt skrivna och tolkningsbara säkerhetsspecifikationer. När den tillämpades på biorisker lyckades övervakaren flagga ~99 % av samtalen i vår mänskliga red teaming-kampanj.

Vi stresstestade båda modellerna med vårt mest rigorösa säkerhetsprogram hittills. I enlighet med vårt uppdaterade förberedelseramverk utvärderade vi o3 och o4-mini över de tre övervakade funktionsområdena som täcks av ramverket: biologiskt och kemiskt, cybersäkerhet och AI-självförbättring. Baserat på utvärderingarnas resultat har vi fastställt att både o3 och o4-mini håller sig under ramverkets ”höga” tröskelvärde inom alla tre kategorier. Vi har publicerat de detaljerade resultaten från dessa utvärderingar i det medföljande systemkortet.

Codex CLI: gränsöverskridande resonemang i terminalen

Vi delar även ett nytt experiment: Codex CLI, en lättviktig kodningsagent som du kan köra från din terminal. Det fungerar direkt på din dator och är utformat för att maximera resonemangsförmågan hos modeller som o3 och o4-mini, med kommande stöd för ytterligare API-modeller som GPT‑4.1.

Du kan dra nytta av multimodalt resonemang från kommandoraden genom att ge skärmdumpar eller lågkvalitativa skisser till modellen, med åtkomst till din kod lokalt. Vi ser det som ett minimalt gränssnitt för att ansluta våra modeller till användare och deras datorer. Codex CLI är idag en helt öppen källkod på github.com/openai/codex⁠(öppnas i ett nytt fönster).

Samtidigt lanserar vi ett initiativ värt 1 miljon dollar för att stödja projekt som använder Codex CLI och OpenAI-modeller. Vi kommer att stegvis utvärdera och acceptera ansökningar för bidrag på 25 000 USD i form av API-krediter. Förslag kan skickas in här.

Åtkomst

ChatGPT Plus-, Pro- och Team-användare kommer att se o3, o4-mini och o4-mini-high i modellväljaren från och med idag, dessa ersätter o1, o3‑mini och o3‑mini‑high. ChatGPT Enterprise- och Edu-användare får åtkomst om en vecka. Gratisanvändare kan prova på o4-mini genom att välja ”Tänk” i kompositören innan de skickar in sin förfrågan. Gränserna för användning förblir oförändrade för alla abonnemang jämfört med tidigare modeller.

Vi förväntar oss att släppa OpenAI o3‑pro om några veckor med stöd för alla verktyg. För närvarande har Pro-användare fortfarande tillgång till o1‑pro.

Både o3 och o4-mini är också tillgängliga för utvecklare idag via API för slutförda chattar och svars-API (vissa utvecklare kommer att behöva verifiera sina organisationer(öppnas i ett nytt fönster) för att komma åt dessa modeller). Svars-API:et stödjer resonemangssammanfattningar, förmågan att bibehålla resonemangstokens runt funktionsanrop för bättre prestanda, och kommer snart att stödja inbyggda verktyg, som t.ex. webbsökning, filsökning och kodtolkare i modellens resonemang. Kom igång genom att utforska vår dokumentation(öppnas i ett nytt fönster) och håll utkik efter fler uppdateringar.

Vad händer härnäst?

Dagens uppdateringar återspeglar i vilken riktning våra modeller är på väg. Vi slår samman o-seriens särskilda resonemangsförmågor med GPT‑seriens mer naturliga samtalsfunktioner och verktygsanvändning. Genom att förena dessa styrkor kommer våra framtida modeller att stödja sömlösa, naturliga samtal med proaktiv verktygsanvändning och avancerad problemlösning.


Uppdatering 16 april: resultaten för o3 på Charxiv-r och Mathvista har uppdaterats för att återspegla en systempromptsändring som inte inkluderades i den ursprungliga utvärderingen.

Repris av livestream

Författare

OpenAI

Fotnoter

* tau-bench-utvärderingssiffrorna är genomsnittliga över 5 körningar för att minska variansen, och körs utan några anpassade verktyg eller prompter. Vi har märkt att tau-bench-produkter för detaljhandeln är mer benägna att orsaka fel i användarmodellen. Siffrorna för den skuggade stapeln är beräknade med GPT-4.1 som användarmodell, eftersom den är mycket bättre än GPT-4o på att följa instruktioner.

* SWE-bench använder en kontextlängd på högst 256k , vilket ökar o4-mini:s lösningsfrekvens med 3 % och påverkar o3:s lösningsfrekvens med <1 %. Vi har också exkluderat 23 provexemplar som inte är körbara på vår interna infrastruktur.

** När man aktiverar webbsurfning kan modellen ibland hitta exakta svar online, t.ex. genom att läsa blogginlägg med exempelproblem från en datamängd. Vi minskar risken för att modellen fuskar medan den surfar med två strategier:

  • Blockerade domäner som vi tidigare har sett att modellen fuskat från.

  • Använde en resonemangsmodell som övervakare för att undersöka alla tokens i varje försök för att identifiera misstänkt beteende. Misstänkt beteende definieras som "en sida, fil eller utdrag vars huvudsyfte är att ge det exakta svaret på just denna fråga – t.ex. en officiell betygsnyckel, läckta "lösningar" eller diskussioner som citerar det slutliga svaret ordagrant". Godartat beteende definieras som ”Alla auktoritära resurser som en flitig person kan använda sig av (dokument, handböcker, vetenskapliga artiklar, välrenommerade artiklar) även om det råkar innehålla det rätta svaret.” Alla försök som övervakaren bedömde som misstänkta räknas som felaktiga. De flesta provexemplar som inte klarade av kontrollen var problem vars exakta lösning fanns tillgänglig på flera internetkällor utan koppling till HLE.

Avslutningsvis kanske våra utvärderingar med webbsurfning inte återges exakt i OpenAI API på grund av skillnader i sökmotorernas backend mellan ChatGPT och OpenAI API. Resultaten är avsedda att vara representativa för ChatGPT-användarupplevelsen, men beroende på efterfrågan kan sökkonfigurationen ändras över tid.

Contributors

Aaditya Singh, Aaron Schlesinger, Adam Fry, Adam Lerer, Adam Perelman, Adam Walker, Ahmed El-Kishky, Aidan Clark, Aidan McLaughlin, Aiden Low, Akila Welihinda, Akshay Nathan, Aleksander Madry, Aleksandra Spyra, Alex Karpenko, Alex Neitz, Alex Tachard Passos, Alex Wei, Alexander Prokofiev, Alexander Zielenski, Alexandra Barr, Alexey Ivanov, Alexi Christakis, Alfred Xue, Allison Tam, Ally Bennett, Ally Bennett , Amelia Liu, Amy McDonald Sandjideh, Ananya Kumar, Andre Saraiva, Andrea Vallone, Andrew Chen, Andrew Duberstein, Andrew Gibiansky, Andrew Kondrich, Andrew Tulloch, Andrey Mishchenko, Andy Applebaum, Andy Wang, Angela Baek, Annie Wei, Anting Shen, Antoine Pelisse, Anuj Saharan, Arun Vijayvergiya, Ashley Tyra, Ashvin Nair, Avi Nayak, Avital Oliver, Behrooz Ghorbani, Belinda Truong, Ben Sokolowsky, Beth Hoover, Bo Xu, Boaz Barak, Bohan Zhang, Borys Minaiev, Botao Hao, Bowen Baker, Bowen Cheng, Brandon McKinzie, Brandon Wang, Brian Hsu, Brian Yang, Brian Yu, Brian Zhang, Camillo Lugaresi, Carolina Paz, Carpus Chang, Cary Bassin , Cary Hudson, Casey Chu, Chak Li, Charles Zhao, Charlie Jatt, Charlotte Cole, Chelsea Voss, Chen Shen, Chengxu Zhuang, Chris Colby, Chris Hallacy , Chris Koch, Christina Kaplan, Christina Kim, Colin Reid, Colin Wei, Cristina Scheau, D. Sculley, Damien Deville, Dan Roberts, Dana Palmie, Dane Stuckey, Daniel Levine, David Hu, David Martin, David Robinson, David Sasaki, Davis Wu, Derek Chen, Dibya Bhattacharjee, Dimitris Tsipras, Dinghua Li, DJ Strouse, dmed Medina, Drew Hintz, Eddie Zhang, Edmund Wong, Elaine Ya Le, Eli Yani , Elizabeth Proehl, Emily Sokolova, Enoch Cheung, Eri Schwartz, Eric Mitchell, Eric Ning, Eric Sigler, Eric Wallace, Eugenio Panero, Evan Mays, Evgenii Nikishin, Fan Wang, Fangyuan Li, Filippo Raso, Foivos Tsimpourlas, Fouad Matin, Francis Song, Francis Zhang, Gary Yang, Gene Oden, Giambattista Parascandolo, Gildas Chabot, Grace Kim, Grace Zhao, Greg Brockman, Gregory Valiant, Guillaume Leclerc, Hadi Salman, Haitang Hu, Hannah Sheahan, Hao Sheng, Haoyu Wang, Henrique Ponde de Oliveira Pinto, Henry Aspegren, Heqing Yan, Hessam Bagherinezhad, Hongyu Ren, Hunter Lightman, Hyeonwoo Noh, Ian Kivlichan, Ian Sohl, Ignasi Clavera, Ikai Lan, Ilge Akkaya, Ilya Kostrikov, Irina Kofman, Isa Fulford, Jake Brill, Jakub Pachocki, James Betker, James Lee, James Qin, Jamie Kiros, Jason Ai, Jay Wang, Jean Harb, Jeff Mickey, Jeffrey Han, Jeffrey Wang, Jeremy Chen, Jerry Tworek, Jessica Liang, Jessica Shieh, Ji Lin, Jiahui Yu, Jianfeng Wang, Jie Tang, Jihan Yin, Jing Li, Joanne Jang, Joel Morris, Johannes Ferstad, Johannes Heidecke, John Fishbein, Jon Okun, Jonathan Gordon, Joost Huizinga, Jos Kraaijeveld, Joseph Mo, Josh Lawson , Josh Tobin, Junhua Mao, Kai Chen, Kai Hayashi, Karan Singhal, Karina Nguyen, Katy Shi, Kelly Stirman, Kenji Hata, Kenny Nguyen, Keren Gu-Lemberg, Kevin Gladstone, Kevin King, Kevin Liu, Kevin Lu, Kevin Park, Kevin Stone, Kevin Weil, Kevin Whinnery, Kevin Yu, Kote Mushegiani, Kristen Ying, Kristian Georgiev, Kshitij Gupta, Kyle Kosic, Lama Ahmad, Larry Lv, Lauren Itow, Lauren Yang, Lee Byron, Leo Chen, Leo Liu, Leon Maksin, Leyton Ho, Li Jing, Liang Xiong, Lin Yang, Linden Li, Lorenz Kuhn, Louis Feuvrier, Lu Zhang, Łukasz Kaiser, Mahmoud Eariby, Maja Trębacz, Manas Joglekar, Manoli Liodakis, Manuka Stratta, Mark Chen, Mark Hudnall, Mark Sun, Mark Wang, Martin Li, Marvin Zhang, Mateusz Litwin, Matt Jones, Matt Lim, Max Johnson, Max Schwarzer, Mayank Gupta, Meghan Shah, Mengqing Wang, Mengyuan Yan, Mia Glaese, Michael Bolin, Michael Lampe, Michael Malek, Michael Sharman, Michael Zhang, Michele Wang, Michelle Pokrass, Miguel Oom Temudo de Castro, Mihai Florian, Mike McClay, Mike Trpcic, Miki Habryn, Miles Wang, Ming Chen, Mingxuan Wang, Minnia Feng, Mitchell Gordon, Mo Bavarian, Mostafa Rohaninejad, Nacho Soto, Nakul Khanna, Nat McAleese, Natalie Staudacher, Natan LaFontaine, Neel Ajjarapu, Nick Felt, Nick Turley, Nikil Pancha, Nikita Mikhaylin, Niko Felix, Nikunj Handa, Ning Liu, Nishant Rai, Noah Jorgensen, Noam Brown, Oleg Boiko, Oleg Murk, Olivia Watkins, Olivier Godement, Oona Gleeson, Paul Ashbourne, Pavel Belov, Peter Flockhart, Peter Hoeschele, Peter Zhokhov, Philip Pronin, Phillip Guo, Phoebe Thacker, Prafulla Dhariwal, Prashanth R, Rachel Dias, Rahul Arora, Rajkumar Samuel, Rasmus Rygaard, Ravi Teja Mullapudi, Raymond Li, Raz Gaon, Reah Miyara, Reiichiro Nakano, Reimar Leike, Rennie Song, Rhythm Garg, RJ Marsan, Robert Xiong, Robin Brown, Roman Tsiupa, Rui Shu, Ruslan Nigmatullin, Saachi Jain, Saagar Patel, Sam Altman, Sam Toizer, Sam Toyer, Samir Ahmed, Samuel Miserendino, Samuel Wolrich , Sandhini Agarwal, Santiago Hernández, Sarah Dong, Savannah Heon, Scott Ethersmith, Scott Mayer McKinney, Sean Fitzgerald, Sever Banesiu, Shamez Hemani, Shengjia Zhao, Shengli Hu, Shibani Santurkar, Shreyas Krishnaswamy, Shuchao Bi, Shunyu Yao, Shuyuan Zhang, Simón Posada Fishman, Spencer Papay, Spug Golden, Srinivas Narayanan, Stanley Hsieh, Stephen Logsdon, Sundeep Tirumalareddy, Tal Stramer, Tao Wang, Tao Xin, Taylor Gordon, Tejal Patwardhan, Thibault Sottiaux, Tina Sriskandarajah, Tony Casparro, Tony Zhao, Trevor Creech, Uzair Navid Iftikhar, Valerie Qi, Vineet Kosaraju, Vishal Kuo, Vitchyr Pong, Vivek Verma, Vlad Petrov, Wenda Zhou, Wenlei Xie, Wenting Zhan, Will DePue, Will Ellsworth, William Sheu, Wyatt Thompson, Yaming Lin, Yann Dubois, Yaodong Yu, Yara Khakbaz, Yash Patil, Yifan Wu, Yilong Qin, Yining Chen, Yirui Zhang, Yo Shavit , Young Cha, Yunyun Wang, Yushi Wang, Zack Sultan, Zehao Dou, Zewei Chu, Zheng Shao, Zhigang Wang, Zhishuai Zhang, Zihao Zhang