@@MrJeanpauloriopretoEles usaram 75% do dataset público como treinamento. A pontuação de 87% foi no dataset semi-privado. Ele pontuaria 91% no dataset que foi treinado, um overfitting relativamente baixo. Do relatório do ARC-AGI: "Note on "tuned": OpenAI shared they trained the o3 we tested on 75% of the Public Training set."
Fato interessante da vida os primeiros níveis é fácil, mas quando maior o nível mais difícil se torna para quebra da barreira do próximo nível.
Pelo visto o caminho deles usar a própria IA para ajudar na sua evolução.
Salve Bruno Capozi! Sou seu fã!
Treinar esses modelos é bem custoso essa briga esta bem interessante
ces nao vao falar do ARC AGI? que passou de 88%
Passou dos 88% usando os dados do próprio teste pra treinar ela.. então não significa nada
@@MrJeanpauloriopretoEles usaram 75% do dataset público como treinamento. A pontuação de 87% foi no dataset semi-privado. Ele pontuaria 91% no dataset que foi treinado, um overfitting relativamente baixo.
Do relatório do ARC-AGI:
"Note on "tuned": OpenAI shared they trained the o3 we tested on 75% of the Public Training set."