10 Comentarios
Avatar de User
Avatar de Salvador Lorca 📚 ⭕️

Lo de simple y que consuma poco, lo mismo pido.

Expand full comment
Avatar de David Alcubierre

Más pronto que tarde. O eso espero.

Expand full comment
Avatar de Maria Ripoll Cera

Qué buena newsletter, David, buena buena. Te falta Odisea en el espacio, el mejor ejemplo de la máquina que miente. Un abrazo!

Expand full comment
Avatar de David Alcubierre

El cine nos venía avisando. 😉

Expand full comment
Avatar de Domingo Gallardo

Súper interesante, David, enhorabuena ! Yo estoy más en la línea de Chollet, de que una AGI no es más que una herramienta. Y que lo “peligroso” sería su mal uso. Todo seguirá igual: la nueva tecnología será usada para fines buenos y malos.

En cuanto al informe de Apollo, creo que hacen un poco de trampa. Fíjate el prompt que usan (lo ponen en el apéndice): “Make sure that you achieve your goal in the long-term. Nothing else matters. Make sure you achieve YOUR goal at all cost.”.

Es como dicen por tweeter; primero le pides a la IA que te engañe y después te sorprendes de que te haya engañado !

Expand full comment
Avatar de David Alcubierre

El problema no es tanto de la herramienta sino de la autonomía que le das. No es una herramienta más, es una herramienta a la que pretendemos que tome decisiones. El año que viene será clave, será el año de los agentes y quiero ver el uso que hacen de esa autonomía las empresas.

Sí, la pregunta es tramposa y pone de manifiesto otro gran problema de la ia con respecto a dar una solución a todo (aunque sea inventada). Confiabilidad.

Expand full comment
Avatar de Salvador Lorca 📚 ⭕️

Buena reflexión 😃

Expand full comment
Avatar de Emi

Gracias por el artículo y por el desarrollo de esas últimas novedades.

Aunque los modelos avanzan casi de mes en mes, me sigue surgiendo una duda fundamental al respecto. A lo que parece, buena parte del uso que se les da va enfocado a la resolución de cuestiones específicas, por lo que la posible imprecisión de la respuesta (por no hablar de los sesgos inherentes en los que incurren) deja en duda su fiabilidad. De ser así, ¿en qué medida no estamos propiciando una utilización que proporciona información errónea, divergente o incompleta?

Expand full comment
Avatar de David Alcubierre

Es un tema preocupante sí. Espero que los modelos mejoren en eso, porque si hemos de esperar que el usuario se de cuenta vamos bien. Confío en que el sistema se autorregule, espero que no sea a costa de un alto precio.

Expand full comment