Página 7 de 7
Re: la IA lo invade todo
Publicado: 12 Jul 2025 15:42
por Edison
Ver citas anteriores
SABELA escribió: ↑12 Jul 2025 09:46
Ver citas anteriores
Edison escribió: ↑12 Jul 2025 09:10
La 'comprensión potemkin': el motivo por el que las inteligencias artificiales explican todo pero no entienden nada
Ver citas anteriores
Estamos en una clase de literatura en un instituto. La profesora está enseñando qué es un haiku, un poema de tres versos de origen japonés que transmite una imagen o emoción. Para saber si un alumno en concreto ha entendido el concepto, normalmente le pedirá que lo defina y que redacte uno. Puede que la definición sea mejorable, pero si escribe un buen haiku, la profesora asumirá que va por buen camino.
Esto funciona porque, para los humanos, aplicar un concepto correctamente es la mejor prueba de que lo hemos entendido. Es algo básico en nuestro aprendizaje. Sin embargo, desde la irrupción de las inteligencias artificiales generativas nos hemos encontrado con una realidad que choca frontalmente con nuestro método. Estos algoritmos pueden definir algo perfectamente (de hecho, lo hacen en el 94% de las ocasiones) pero fallar más de la mitad de las veces si se les pide que lo pongan en práctica.
Son los resultados de un estudio preliminar elaborado por Investigadores del Instituto Tecnológico de Massachusetts (MIT) y de las universidades de Harvard y Chicago. Este ha conseguido recoger evidencias sólidas de lo que muchos llevaban años avisando: las inteligencias artificiales generativas de texto no entienden lo que escriben. Pero, además, han profundizado en el fenómeno y las razones por las que se produce. También han propuesto un nombre para él: la “comprensión potemkin”.
El término de “comprensión potemkin” evoca el mito de las aldeas potemkin. Según la leyenda (discutida hoy por los historiadores), estas fueron construidas por Grigori Potemkin, valido y amante de Catalina la Grande de Rusia. Durante un viaje de la zarina por Crimea en 1787 junto a embajadores extranjeros, Potemkin habría mandado construir pueblos falsos para impresionarla y ocultar la pobreza real de la región. Con casas compuestas solo de fachadas, campesinos traídos para la ocasión y animales alquilados, su objetivo era dar una falsa impresión de prosperidad.
Los investigadores utilizan esta analogía en su estudio como metáfora de la “fachada” de raciocinio que los modelos de IA construyen ante nosotros. Una “ilusión de comprensión” que les permite explicar casi cualquier término por el que se les pregunte sin ser capaces de aplicarlo, dando “respuestas irreconciliables con la forma en que cualquier humano interpretaría un concepto”.
...
Nada nuevo. Es como un alumno muy tonto, pero con una gran memoria.
Es curioso, en términos generales las noticias referidas a IA suelen ir en la dirección que tu dices tonto , que acumula datos y los presenta decentemente, pero no faltan las de ¡Cuidado, es una amenaza! ¡Esto no ha hecho más que empezar!
La amenaza más habitual es la relativa a los empleos que van a ser innecesarios, al reemplazo laboral , pero no faltan las apocalípticas :más propias de guiones de sci-fi ( sin descartar que en un futuro esos guiones puedan haber abandonado el terreno de la ficción)
Esta noticia es un tanto híbrida : amenaza de cambios enfocándose sobre todo en lo laboral , pero con titulares catastrofistas ( sin embargo cuando se lee el texto , deja un lugar también para un futuro esperanzador y quizás ingenuamente idílico)
https://vandal.elespanol.com/random/ada ... 35080.html
Está claro, cuando falla la inteligencia natural solo queda esto:
Cómo se entrena Grok, la IA de X, y por qué ha elogiado a Hitler y realizado comentarios antisemitas
Ver citas anteriores
...
Cómo aprende Grok. Girón, Liz-López y D’Antonio explican que este tipo de inteligencias artificiales tienen “dos fases bien marcadas” en su entrenamiento.
En primer lugar, se da lo que conocemos como preentrenamiento, que sería algo como “leerse y memorizarse todo Internet”, señalan.
La segunda fase marca cómo la IA va a responder a la petición del usuario, algo que depende de los datos que reciba. “Aprenderá a contestar como le hayan dicho que tiene que hacerlo, ni más ni menos”. En este sentido, los tres expertos apuntan que “hay muy poca información acerca del funcionamiento de Grok, pero lo que sí podemos afirmar es que, si es capaz de responder con discurso de odio, es porque en su entrenamiento ha visto discurso de odio”.
---

Re: la IA lo invade todo
Publicado: 12 Jul 2025 16:36
por Vitornacovilha
Ver citas anteriores
Edison escribió: ↑12 Jul 2025 15:42
Ver citas anteriores
SABELA escribió: ↑12 Jul 2025 09:46
Ver citas anteriores
Edison escribió: ↑12 Jul 2025 09:10
La 'comprensión potemkin': el motivo por el que las inteligencias artificiales explican todo pero no entienden nada
Ver citas anteriores
Estamos en una clase de literatura en un instituto. La profesora está enseñando qué es un haiku, un poema de tres versos de origen japonés que transmite una imagen o emoción. Para saber si un alumno en concreto ha entendido el concepto, normalmente le pedirá que lo defina y que redacte uno. Puede que la definición sea mejorable, pero si escribe un buen haiku, la profesora asumirá que va por buen camino.
Esto funciona porque, para los humanos, aplicar un concepto correctamente es la mejor prueba de que lo hemos entendido. Es algo básico en nuestro aprendizaje. Sin embargo, desde la irrupción de las inteligencias artificiales generativas nos hemos encontrado con una realidad que choca frontalmente con nuestro método. Estos algoritmos pueden definir algo perfectamente (de hecho, lo hacen en el 94% de las ocasiones) pero fallar más de la mitad de las veces si se les pide que lo pongan en práctica.
Son los resultados de un estudio preliminar elaborado por Investigadores del Instituto Tecnológico de Massachusetts (MIT) y de las universidades de Harvard y Chicago. Este ha conseguido recoger evidencias sólidas de lo que muchos llevaban años avisando: las inteligencias artificiales generativas de texto no entienden lo que escriben. Pero, además, han profundizado en el fenómeno y las razones por las que se produce. También han propuesto un nombre para él: la “comprensión potemkin”.
El término de “comprensión potemkin” evoca el mito de las aldeas potemkin. Según la leyenda (discutida hoy por los historiadores), estas fueron construidas por Grigori Potemkin, valido y amante de Catalina la Grande de Rusia. Durante un viaje de la zarina por Crimea en 1787 junto a embajadores extranjeros, Potemkin habría mandado construir pueblos falsos para impresionarla y ocultar la pobreza real de la región. Con casas compuestas solo de fachadas, campesinos traídos para la ocasión y animales alquilados, su objetivo era dar una falsa impresión de prosperidad.
Los investigadores utilizan esta analogía en su estudio como metáfora de la “fachada” de raciocinio que los modelos de IA construyen ante nosotros. Una “ilusión de comprensión” que les permite explicar casi cualquier término por el que se les pregunte sin ser capaces de aplicarlo, dando “respuestas irreconciliables con la forma en que cualquier humano interpretaría un concepto”.
...
Nada nuevo. Es como un alumno muy tonto, pero con una gran memoria.
Es curioso, en términos generales las noticias referidas a IA suelen ir en la dirección que tu dices tonto , que acumula datos y los presenta decentemente, pero no faltan las de ¡Cuidado, es una amenaza! ¡Esto no ha hecho más que empezar!
La amenaza más habitual es la relativa a los empleos que van a ser innecesarios, al reemplazo laboral , pero no faltan las apocalípticas :más propias de guiones de sci-fi ( sin descartar que en un futuro esos guiones puedan haber abandonado el terreno de la ficción)
Esta noticia es un tanto híbrida : amenaza de cambios enfocándose sobre todo en lo laboral , pero con titulares catastrofistas ( sin embargo cuando se lee el texto , deja un lugar también para un futuro esperanzador y quizás ingenuamente idílico)
https://vandal.elespanol.com/random/ada ... 35080.html
Está claro, cuando falla la inteligencia natural solo queda esto:
Cómo se entrena Grok, la IA de X, y por qué ha elogiado a Hitler y realizado comentarios antisemitas
Ver citas anteriores
...
Cómo aprende Grok. Girón, Liz-López y D’Antonio explican que este tipo de inteligencias artificiales tienen “dos fases bien marcadas” en su entrenamiento.
En primer lugar, se da lo que conocemos como preentrenamiento, que sería algo como “leerse y memorizarse todo Internet”, señalan.
La segunda fase marca cómo la IA va a responder a la petición del usuario, algo que depende de los datos que reciba. “Aprenderá a contestar como le hayan dicho que tiene que hacerlo, ni más ni menos”. En este sentido, los tres expertos apuntan que “hay muy poca información acerca del funcionamiento de Grok, pero lo que sí podemos afirmar es que, si es capaz de responder con discurso de odio, es porque en su entrenamiento ha visto discurso de odio”.
---
Exactamente lo que ha ocurrido es que Grok estaba siendo demasiado liberal (en términos anglosajones) y Musk intentó darle un giro más conservador, todo terminó en que se volvió nazi.
Pero Grok era liberal, y bastante de izquierda.
Pero por aquí la peña decía que Grok era un arma del imperialismo que ensuciaba mentes con sus opiniones burguesas.

Re: la IA lo invade todo
Publicado: 13 Jul 2025 10:09
por Nowomowa
Ver citas anteriores
SABELA escribió: ↑12 Jul 2025 09:46
Ver citas anteriores
Edison escribió: ↑12 Jul 2025 09:10
La 'comprensión potemkin': el motivo por el que las inteligencias artificiales explican todo pero no entienden nada
Ver citas anteriores
Estamos en una clase de literatura en un instituto. La profesora está enseñando qué es un haiku, un poema de tres versos de origen japonés que transmite una imagen o emoción. Para saber si un alumno en concreto ha entendido el concepto, normalmente le pedirá que lo defina y que redacte uno. Puede que la definición sea mejorable, pero si escribe un buen haiku, la profesora asumirá que va por buen camino.
Esto funciona porque, para los humanos, aplicar un concepto correctamente es la mejor prueba de que lo hemos entendido. Es algo básico en nuestro aprendizaje. Sin embargo, desde la irrupción de las inteligencias artificiales generativas nos hemos encontrado con una realidad que choca frontalmente con nuestro método. Estos algoritmos pueden definir algo perfectamente (de hecho, lo hacen en el 94% de las ocasiones) pero fallar más de la mitad de las veces si se les pide que lo pongan en práctica.
Son los resultados de un estudio preliminar elaborado por Investigadores del Instituto Tecnológico de Massachusetts (MIT) y de las universidades de Harvard y Chicago. Este ha conseguido recoger evidencias sólidas de lo que muchos llevaban años avisando: las inteligencias artificiales generativas de texto no entienden lo que escriben. Pero, además, han profundizado en el fenómeno y las razones por las que se produce. También han propuesto un nombre para él: la “comprensión potemkin”.
El término de “comprensión potemkin” evoca el mito de las aldeas potemkin. Según la leyenda (discutida hoy por los historiadores), estas fueron construidas por Grigori Potemkin, valido y amante de Catalina la Grande de Rusia. Durante un viaje de la zarina por Crimea en 1787 junto a embajadores extranjeros, Potemkin habría mandado construir pueblos falsos para impresionarla y ocultar la pobreza real de la región. Con casas compuestas solo de fachadas, campesinos traídos para la ocasión y animales alquilados, su objetivo era dar una falsa impresión de prosperidad.
Los investigadores utilizan esta analogía en su estudio como metáfora de la “fachada” de raciocinio que los modelos de IA construyen ante nosotros. Una “ilusión de comprensión” que les permite explicar casi cualquier término por el que se les pregunte sin ser capaces de aplicarlo, dando “respuestas irreconciliables con la forma en que cualquier humano interpretaría un concepto”.
...
Nada nuevo. Es como un alumno muy tonto, pero con una gran memoria.
Es curioso, en términos generales las noticias referidas a IA suelen ir en la dirección que tu dices tonto , que acumula datos y los presenta decentemente, pero no faltan las de ¡Cuidado, es una amenaza! ¡Esto no ha hecho más que empezar!
La amenaza más habitual es la relativa a los empleos que van a ser innecesarios, al reemplazo laboral , pero no faltan las apocalípticas :más propias de guiones de sci-fi ( sin descartar que en un futuro esos guiones puedan haber abandonado el terreno de la ficción)
Esta noticia es un tanto híbrida : amenaza de cambios enfocándose sobre todo en lo laboral , pero con titulares catastrofistas ( sin embargo cuando se lee el texto , deja un lugar también para un futuro esperanzador y quizás ingenuamente idílico)
https://vandal.elespanol.com/random/ada ... 35080.html
En esto de la IA hay mucho batiburrillo e intereses económicos. Las IA LLM no son verdaderamente inteligentes, pero pueden fingir que pueden sustituir ciertos trabajos lo bastante bien para que alguien se lleve un bonus y para cuando se vea que no pita ese alguien ya estará cobrando el doble en otra empresa (por ejemplo: la deblace de DuoLingo).
Asimismo hay un riesgo general en la automatización de tareas, con o sin IAs LLM o de otros tipos, en la tendencia capitalista de destruir salarios como forma de aumentar los beneficios.
Se habla mucho de que pueden usarse las IA para programar, pero lo que hacen es sustituir la función del programador humano de "buscar en GitHub un trozo de código que pueda cumplir la función que deseas" y "enganchar uno detrás de otro muchos trozos de código a ver si la cosa no se rompe mucho al interactuar con todos los otros pastiches de los otros programadores". Es ineficiente porque a menudo "lo primero que encuentras" no es "la solución óptima" pero los tiempos en los que había que optimizar el código pasaron a la historia cuando alguien cobró un bonus y se fue a cobrar el doble a otra empresa tras vender la moto de que "un indio que te suelte 2000 líneas de código por día es más barato y sirve igual". Sigue habiendo tareas-nunca-antes-resueltas y superprogramadores, pero el hecho de que la pogramación de software pueda acometerla una IA habla mucho peor de cómo se perpetra software hoy en día que de las capacidades de la idiotez artificial... la cual a su vez también es un tipo de software en constante estado de perpetración.
Re: la IA lo invade todo
Publicado: 13 Jul 2025 10:18
por SABELA
Ver citas anteriores
Nowomowa escribió: ↑13 Jul 2025 10:09
Ver citas anteriores
SABELA escribió: ↑12 Jul 2025 09:46
Ver citas anteriores
Edison escribió: ↑12 Jul 2025 09:10
La 'comprensión potemkin': el motivo por el que las inteligencias artificiales explican todo pero no entienden nada
Ver citas anteriores
Estamos en una clase de literatura en un instituto. La profesora está enseñando qué es un haiku, un poema de tres versos de origen japonés que transmite una imagen o emoción. Para saber si un alumno en concreto ha entendido el concepto, normalmente le pedirá que lo defina y que redacte uno. Puede que la definición sea mejorable, pero si escribe un buen haiku, la profesora asumirá que va por buen camino.
Esto funciona porque, para los humanos, aplicar un concepto correctamente es la mejor prueba de que lo hemos entendido. Es algo básico en nuestro aprendizaje. Sin embargo, desde la irrupción de las inteligencias artificiales generativas nos hemos encontrado con una realidad que choca frontalmente con nuestro método. Estos algoritmos pueden definir algo perfectamente (de hecho, lo hacen en el 94% de las ocasiones) pero fallar más de la mitad de las veces si se les pide que lo pongan en práctica.
Son los resultados de un estudio preliminar elaborado por Investigadores del Instituto Tecnológico de Massachusetts (MIT) y de las universidades de Harvard y Chicago. Este ha conseguido recoger evidencias sólidas de lo que muchos llevaban años avisando: las inteligencias artificiales generativas de texto no entienden lo que escriben. Pero, además, han profundizado en el fenómeno y las razones por las que se produce. También han propuesto un nombre para él: la “comprensión potemkin”.
El término de “comprensión potemkin” evoca el mito de las aldeas potemkin. Según la leyenda (discutida hoy por los historiadores), estas fueron construidas por Grigori Potemkin, valido y amante de Catalina la Grande de Rusia. Durante un viaje de la zarina por Crimea en 1787 junto a embajadores extranjeros, Potemkin habría mandado construir pueblos falsos para impresionarla y ocultar la pobreza real de la región. Con casas compuestas solo de fachadas, campesinos traídos para la ocasión y animales alquilados, su objetivo era dar una falsa impresión de prosperidad.
Los investigadores utilizan esta analogía en su estudio como metáfora de la “fachada” de raciocinio que los modelos de IA construyen ante nosotros. Una “ilusión de comprensión” que les permite explicar casi cualquier término por el que se les pregunte sin ser capaces de aplicarlo, dando “respuestas irreconciliables con la forma en que cualquier humano interpretaría un concepto”.
...
Nada nuevo. Es como un alumno muy tonto, pero con una gran memoria.
Es curioso, en términos generales las noticias referidas a IA suelen ir en la dirección que tu dices tonto , que acumula datos y los presenta decentemente, pero no faltan las de ¡Cuidado, es una amenaza! ¡Esto no ha hecho más que empezar!
La amenaza más habitual es la relativa a los empleos que van a ser innecesarios, al reemplazo laboral , pero no faltan las apocalípticas :más propias de guiones de sci-fi ( sin descartar que en un futuro esos guiones puedan haber abandonado el terreno de la ficción)
Esta noticia es un tanto híbrida : amenaza de cambios enfocándose sobre todo en lo laboral , pero con titulares catastrofistas ( sin embargo cuando se lee el texto , deja un lugar también para un futuro esperanzador y quizás ingenuamente idílico)
https://vandal.elespanol.com/random/ada ... 35080.html
En esto de la IA hay mucho batiburrillo e intereses económicos. Las IA LLM no son verdaderamente inteligentes, pero pueden fingir que pueden sustituir ciertos trabajos lo bastante bien para que alguien se lleve un bonus y para cuando se vea que no pita ese alguien ya estará cobrando el doble en otra empresa (por ejemplo: la deblace de DuoLingo).
Asimismo hay un riesgo general en la automatización de tareas, con o sin IAs LLM o de otros tipos, en la tendencia capitalista de destruir salarios como forma de aumentar los beneficios.
Se habla mucho de que pueden usarse las IA para programar, pero lo que hacen es sustituir la función del programador humano de "buscar en GitHub un trozo de código que pueda cumplir la función que deseas" y "enganchar uno detrás de otro muchos trozos de código a ver si la cosa no se rompe mucho al interactuar con todos los otros pastiches de los otros programadores". Es ineficiente porque a menudo "lo primero que encuentras" no es "la solución óptima" pero los tiempos en los que había que optimizar el código pasaron a la historia cuando alguien cobró un bonus y se fue a cobrar el doble a otra empresa tras vender la moto de que "un indio que te suelte 2000 líneas de código por día es más barato y sirve igual". Sigue habiendo tareas-nunca-antes-resueltas y superprogramadores, pero el hecho de que la pogramación de software pueda acometerla una IA habla mucho peor de cómo se perpetra software hoy en día que de las capacidades de la idiotez artificial... la cual a su vez también es un tipo de software en constante estado de perpetración.
Ya he leído acerca de las quejas de programadores acerca de la dificultad de corregir bugs en programas hechos por IA. Me pregunto si la IA mete lineas de comentarios y escribe documentos técnicos de programación
¿ Lo sabes?
Re: la IA lo invade todo
Publicado: 13 Jul 2025 10:38
por Edison
En la época en que todo el sistema operativo de un ordenador cabía en una ROM de 4 kbytes, uno podía memorizarlo completo y sabía exactamente lo que hacía, microinstrucción por microinstrucción. Y si no hacía exactamente lo que querías era culpa tuya. Pero ahora lo único seguro es que cuando tomas un trozo de programa de aquí y otro de allá, habrá mucha mierda mezclada. Solo puedes poner un cirio a Santa Rita y esperar que no cause alguna desgracia imprevista.
Re: la IA lo invade todo
Publicado: 13 Jul 2025 10:57
por SABELA
Ver citas anteriores
Edison escribió: ↑13 Jul 2025 10:38
En la época en que todo el sistema operativo de un ordenador de oficina cabía en una ROM de 4 kbytes, uno podía memorizarlo completo y sabía exactamente lo que hacía, microinstrucción por microinstrucción. Y si no hacía lo que querías, era culpa tuya. Pero ahora lo único seguro es que cuando tomas un trozo de programa de aquí y otro de allá, habrá mucha mierda mezclada. Solo puedes poner un cirio a Santa Rita y esperar que no cause alguna desgracia imprevista.
Si se trata de aplicaciones corporativas y las copias se hacen de programas con funcionalidades similares y que marchan bien es mucho más eficiente la copia ¿no crees? , por tiempo, pero también para mantener los estándares y la comprensión .
Re: la IA lo invade todo
Publicado: 13 Jul 2025 11:21
por Edison
Ver citas anteriores
SABELA escribió: ↑13 Jul 2025 10:57
Ver citas anteriores
Edison escribió: ↑13 Jul 2025 10:38
En la época en que todo el sistema operativo de un ordenador de oficina cabía en una ROM de 4 kbytes, uno podía memorizarlo completo y sabía exactamente lo que hacía, microinstrucción por microinstrucción. Y si no hacía lo que querías, era culpa tuya. Pero ahora lo único seguro es que cuando tomas un trozo de programa de aquí y otro de allá, habrá mucha mierda mezclada. Solo puedes poner un cirio a Santa Rita y esperar que no cause alguna desgracia imprevista.
Si se trata de aplicaciones corporativas y las copias se hacen de programas con funcionalidades similares y que marchan bien es mucho más eficiente la copia ¿no crees? , por tiempo, pero también para mantener los estándares y la comprensión .
Está claro que una hoja de cálculo no causará muchos problemas por añadir algo más de color para distinguir filas y columnas, y si los hay es fácil que se descubra a tiempo. Lo malo es cuando se trata de un programa para controlar algo que se mueve, y menos mal si no muere nadie.
Un error de código le provocó a la NASA la pérdida de 150 millones de dólares
Hablando de incompetentes:
El día en que la NASA estrelló una sonda en Marte porque alguien olvidó usar el sistema métrico
Re: la IA lo invade todo
Publicado: 13 Jul 2025 11:32
por SABELA
Ver citas anteriores
Edison escribió: ↑13 Jul 2025 11:21
Ver citas anteriores
SABELA escribió: ↑13 Jul 2025 10:57
Ver citas anteriores
Edison escribió: ↑13 Jul 2025 10:38
En la época en que todo el sistema operativo de un ordenador de oficina cabía en una ROM de 4 kbytes, uno podía memorizarlo completo y sabía exactamente lo que hacía, microinstrucción por microinstrucción. Y si no hacía lo que querías, era culpa tuya. Pero ahora lo único seguro es que cuando tomas un trozo de programa de aquí y otro de allá, habrá mucha mierda mezclada. Solo puedes poner un cirio a Santa Rita y esperar que no cause alguna desgracia imprevista.
Si se trata de aplicaciones corporativas y las copias se hacen de programas con funcionalidades similares y que marchan bien es mucho más eficiente la copia ¿no crees? , por tiempo, pero también para mantener los estándares y la comprensión .
Está claro que una hoja de cálculo no causará muchos problemas por añadir algo más de color para distinguir filas y columnas, y si los hay es fácil que se descubra a tiempo. Lo malo es cuando se trata del programa para controlar algo que se mueve, y menos mal si no muere nadie.
Un error de código le provocó a la NASA la pérdida de 150 millones de dólares
Hablando de incompetentes:
El día en que la NASA estrelló una sonda en Marte porque alguien olvidó usar el sistema métrico
Cuando hablo de aplicaciones corporativas no hablo de hojas de cálculo sino de programas más o menos complejos normalmente realizados ad-hoc en el lenguaje o lenguajes de programación que sean. No tienen por qué ser de la Nasa, pueden ser de una entidad financiera, por ejemplo, y hacer un buen roto si algo sale especialmente mal.