Saltar al contenido principal

5 publicaciones etiquetados con "IA"

Ver Todas las Etiquetas

· 3 min de lectura
ferran figueredo

Una forma divertida en la que estoy utilizando últimamente Chat GPT es para jugar a "historias de misterio":

Yo: Inventa la historia de un asesinato. En esta historia, yo te iré haciendo preguntas o pidiendo pistas.

Chat GPT: La tranquila ciudad de Serenfield se ve sacudida por un espeluznante asesinato. Durante una noche lluviosa, en una antigua mansión victoriana convertida en un hotel, se descubre el cuerpo sin vida del reconocido magnate Edward Sinclair en su suite presidencial. El asesinato parece ser meticulosamente planeado y ejecutado, dejando a todos los huéspedes y empleados en estado de shock. La policía local, encabezada por la sagaz detective Emily Watson, se embarca en una carrera contrarreloj para desentrañar el oscuro misterio y atrapar al asesino antes de que vuelva a golpear.

Yo: ¿Qué pistas se encontraron en la escena del crimen que podrían ayudar a resolver la identidad del asesino?

Chat GPT: La detective Emily Watson y su equipo de investigadores examinaron minuciosamente la escena del crimen en la suite presidencial donde se encontró el cuerpo de Edward Sinclair. Aquí están algunas de las pistas que descubrieron:

Un mensaje enigmático: Junto al cuerpo de Edward Sinclair, había una nota escrita a mano que decía: "El pasado siempre regresa para cobrarse su deuda". La letra era irregular y temblorosa, como si estuviera escrita apresuradamente.

(Continúa)

Al margen de que este uso puede ser más o menos entretenido, lo que más me gusta es pensar en cómo se construye esa historia.

Por una parte, yo sé cómo funciona Chat GPT y cómo va elaborando el texto. Cada input que le doy hace que desarrolle el texto que sigue a continuación. Si le pido una receta que utilice ciertos ingredientes, combina con el modelo y me devuelve una receta que incluya esos ingredientes. Si después le digo que no tengo un ingrediente concreto, tiene en cuenta ese nuevo input y genera una nueva receta haciendo uso de todo lo anterior.

El problema viene cuando yo también sé cómo se construyen las historias de misterio, las cuales son completamente opuestas a ese flujo. La diferencia está en que hay un narrador que ya conoce el desenlace al principio y te va dando información según avanza la investigación. Es decir, mi input no tiene impacto y no sirve para ir moldeando las nuevas respuestas.

Por lo tanto, me parece interesantísimo pedirle a Chat GPT que genere historias de misterio de este tipo, ya que son completamente contraintuitivas. ¿Sabe Chat GPT quién es el asesino al principio de la historia? ¿Lo va improvisando hasta que en algún momento decide "resolver"?.

Sinceramente, esto sí que me parece un misterio.

Etiquetas:

· Lectura de un minuto
ferran figueredo

A medida que profundizo más en IA, voy afinando cada vez más para qué sirve o, mejor dicho, cómo utilizarla en mi beneficio. Al principio, como todos, le asigné propiedades mágicas para responder a todas mis preguntas, por ejemplo, sacar estadísticas o encontrar patrones.

Está claro que funciona, pero hay algo que no me convence… Empiezas a investigar y el problema no es el prompt, ni las alucinaciones, ni que "no funciona".

Ahí es cuando hice clic. El problema es que se está utilizando para lo que no es.

Los LLMs, como su nombre indica, son modelos de lenguaje. Por lo tanto, se desenvuelven con palabras. Es decir, te entenderán mejor si dices "un lujoso apartamento" en lugar de decir "un apartamento de 500k€".

No solo palabras. Otro ejemplo es que me resultará más útil si le pido que escriba una query compleja de SQL sobre mi base de datos vs. pasarle los datos directamente para que los analice.

Es como un martillo. Le puedo pedir que saque clavos y me servirá. Lo hará muy bien, incluso. Pero un martillo sirve para clavar clavos. Los LLMs son un martillo.

Etiquetas:

· Lectura de un minuto
ferran figueredo

Ayer decía:

Una consecuencia que me gusta de la llegada de nuevas tecnologías* (como pasó con el Blockchain o ahora con la IA), es que te hacen pensar.

Otra cosa que me ha hecho pensar es en utilizar la facilidad de dejar de utilizar una tecnología como medidor del éxito que pueda tener.

No son tecnologías comparables, pero como incorporaciones "recientes" me sirve el poder comparar entre blockchain y la IA.

Una vez que conoces blockchain y las criptomonedas, soy capaz de dejar de utilizarla sin problemas. Me imagino un futuro en el que no hay BTC. ¿Me gustaría que existiera? Claro, pero no tengo sensación de que si desaparece estamos retrocediendo.

En cambio, una vez conocida lo que se puede hacer con IA, no encuentro un motivo para dejar de utilizarla. No encuentro razón por la que mañana me levante y vuelva a escribir todo el código personalmente. ¿Por qué iba a querer perder ese tiempo?.

Ha ocurrido siempre. La primera vez que probaste un smartphone te tuvo que flipar. Con la IA me pasa lo mismo… si utilizo mi "facilidad de abandono" como medidor, estamos en una situación de la que no hay vuelta atrás.

· Lectura de un minuto
ferran figueredo

Una consecuencia que me gusta de la llegada de nuevas tecnologías* (como pasó con el Blockchain o ahora con la IA), es que te hacen pensar.

Y la IA me ha hecho pensar que nuestro aprendizaje tiene un proceso que lleva consigo una evolución. Es decir, no aprendemos por conocer las respuestas, sino por haber hecho el camino de aprender. En ese camino vamos conectando con otras ideas que ya sabemos, vamos cometiendo errores y todo eso va "grabando" en nuestro cerebro.

Por el contrario, algo que tienen los algoritmos es que son exactos. No fallan ni aprenden a base de errores. Por lo tanto, si la IA quiere enseñarnos algo, deberá tener en cuenta que nuestro cerebro necesita unir ideas y necesita entenderlas en cierto "formato" para poder almacenarlas.

Creo que somos malos guardando respuestas pero somos buenos guardando caminos.


*Ya sé que la IA no es "nueva tecnología" y hace muchos años que se estudia, pero la calidad de ahora no se parece en nada a lo que había hasta ahora, por lo que me permito considerarla "nueva".

· 2 min de lectura
ferran figueredo

Estaba escuchando un podcast sobre inteligencia artificial y me ha parecido super interesante una reflexión de Javier Recuenco:

Al final terminarán siendo unas cosas de ricos y otras cosas de pobres. Y la gente que pague dinero tendrá acceso a las capacidades de la inteligencia artificial, lo cual hará agrandar la desigualdad. La desigualdad no tiene que ver con decisiones politicas; es que hay distancia entre gente que crea valor y gente que no crea valor, que antes era mano de obra para el sistema pero el sistema cada vez necesita menos mano de obra.

Quizás tenemos tendencia a pensar que el acceso a la IA será una tecnología para todos, pero coincido en que creo que no será así. El que tenga dinero pagará mejores modelos y el que no tenga dinero no tendrá acceso a ellos (o a peores modelos).

En un primer momento, me gusta ver la IA como un "potenciador de habilidades", por lo que quien tenga mejores herramientas para incrementar su productividad tendrá una clara ventaja respecto al que no. La consecuencia de ello es que se dispará todavía más la brecha entre el primero y el último.

Me parece una consecuencia maldita, porque tengo tendencia a pensar que las mejoras nos aplican siempre a todos y "la humanidad" mejorará en su conjunto; pero nada más lejos. La media podrá mejorar respecto a la actual, pero será a costa de que el 100 en el futuro sea 1000, no de que el 10 esté más cerca del 50.