Ahora lo que sigue en los modelos de lenguaje es lo que ya están haciendo, poner a los modelos a interpretar sus propias respuestas. Con la esperanza de que alguna respuesta delirante de entre miles, desbloquee algún tipo de razonamiento que no existía hasta ahora y esto genere ideas nuevas.
No estoy seguro de que podamos medir la saturación del entrenamiento. Pienso que podríamos tener saturación en las evaluaciones antes que en las capacidades, osea, las capacidades de evaluar los modelos va a saturar antes que la mejora de los modelos por escala y técnicas combinadas.
Buenas. Excelente video como siempre. QUiero entrar a competir en kaggle y tengo una duda, los limites de hardweare de 9h de gpu en la competencia se refieren al tiempo de inferencia sobre el dataset de prueba o es el pipeline completo desde que entrenas al modelo hasta que haces la inferencia para hacer el submit de tu solucion?
Bro ya te diste cuenta que justo ahora mismo acaban de permitir la voz avanzada de ChatGPT en los GPTS de la GPTStore y de tus propios GPT pfff!!! estaba esperando esto desde hace mucho ahora si me sentiré Tonny Star
Pasó la era del Entrenamiento Extremo y se viene la era de la Inferencia Extrema.
Excelente video, realmente da gusto encontrarse con contenido de valor c:
¡Gracias!
Gracias a ti Claudio, un saludo!
Ahora lo que sigue en los modelos de lenguaje es lo que ya están haciendo, poner a los modelos a interpretar sus propias respuestas. Con la esperanza de que alguna respuesta delirante de entre miles, desbloquee algún tipo de razonamiento que no existía hasta ahora y esto genere ideas nuevas.
Gran trabajo con su canal. Información top. Gracias y felicitaciones 👏👏
Exelente video bro
Interesante! Gracias César.
Cuando pensamos que estamos llegando a los límites de las cosas, la tarea de los ingenieros es crear soluciones y llevarnos más allá
Que buen video!, como siempre 😌
No soy del area asi que no entendi nada, pero bien por el trabajo y el conocimiento que demuestras, saludos.
Que buen noticiero!
gracias compa
Gracias por las noticias.😊
No estoy seguro de que podamos medir la saturación del entrenamiento. Pienso que podríamos tener saturación en las evaluaciones antes que en las capacidades, osea, las capacidades de evaluar los modelos va a saturar antes que la mejora de los modelos por escala y técnicas combinadas.
Muy buen análisis de los temas
Es una montaña de verdad lo de fondo? Monterrey?
Saludos desde Chile gran trabajo ac esperando el capítulo donde se anuncie la AGI 😅
Buenas. Excelente video como siempre. QUiero entrar a competir en kaggle y tengo una duda, los limites de hardweare de 9h de gpu en la competencia se refieren al tiempo de inferencia sobre el dataset de prueba o es el pipeline completo desde que entrenas al modelo hasta que haces la inferencia para hacer el submit de tu solucion?
Lo sospeche desde hace unos meses...
Ese muro es humo
🔥
Bro ya te diste cuenta que justo ahora mismo acaban de permitir la voz avanzada de ChatGPT en los GPTS de la GPTStore y de tus propios GPT pfff!!! estaba esperando esto desde hace mucho ahora si me sentiré Tonny Star
Eres una persona muy especial, tanto que parece que tuvieras síndrome de down
que poca educación, espera que pronto en persona te encontrarás a alguien que te responda y te dé un contacto con la realidad... guerrero del teclado
cuando este disponible ese NousResearch/Hermes con Reasoning, !comenta!. Sera interesante