Un ingeniero de Google afirma que su programa ha desarrollado "sentimientos" y es suspendido

Ciencia en general, tecnología, informática, medicina...
Responder
El Sopapo
Funcionario
Mensajes: 7255
Registrado: 07 Jul 2019 12:00

Un ingeniero de Google afirma que su programa ha desarrollado "sentimientos" y es suspendido

Mensaje por El Sopapo »

Un ingeniero de Google afirma que su programa ha desarrollado "sentimientos" y es suspendido
El trabajador ha sido acusado de violar la política de privacidad de la empresa.

https://www.huffingtonpost.es/entry/un- ... 43c84d97e5

---
Un grupo europeo de seguridad aérea advierte que una fuente no identificada está perturbando los sistemas GPS cerca de Rusia y Ucrania

https://www.businessinsider.es/fuente-d ... ia-1030087

---
Crean un avión inteligente capaz de perseguir y atacar enemigos por su cuenta
Por primera vez, el Ejército de Estados Unidos ha probado un dron capaz de identificar y seguir objetivos de forma completamente autónoma

https://www.elconfidencial.com/tecnolog ... s_3238786/

----

¿Deberían prohibirse las armas autónomas.?

¿En caso de que esas armas autónomas maten a algún inocente, quien sera el responsable ante la ley?
SABELA
Becario
Mensajes: 412
Registrado: 21 Mar 2022 11:46

Re: Un ingeniero de Google afirma que su programa ha desarrollado "sentimientos" y es suspendido

Mensaje por SABELA »

El Sopapo escribió: 14 Jun 2022 07:36 Un ingeniero de Google afirma que su programa ha desarrollado "sentimientos" y es suspendido
El trabajador ha sido acusado de violar la política de privacidad de la empresa.

https://www.huffingtonpost.es/entry/un- ... 43c84d97e5

---
Un grupo europeo de seguridad aérea advierte que una fuente no identificada está perturbando los sistemas GPS cerca de Rusia y Ucrania

https://www.businessinsider.es/fuente-d ... ia-1030087

---
Crean un avión inteligente capaz de perseguir y atacar enemigos por su cuenta
Por primera vez, el Ejército de Estados Unidos ha probado un dron capaz de identificar y seguir objetivos de forma completamente autónoma

https://www.elconfidencial.com/tecnolog ... s_3238786/

----

¿Deberían prohibirse las armas autónomas.?

¿En caso de que esas armas autónomas maten a algún inocente, quien sera el responsable ante la ley?
https://www.filmaffinity.com/es/film889720.html
El Sopapo
Funcionario
Mensajes: 7255
Registrado: 07 Jul 2019 12:00

Re: Un ingeniero de Google afirma que su programa ha desarrollado "sentimientos" y es suspendido

Mensaje por El Sopapo »

SABELA escribió: 14 Jun 2022 22:30
El Sopapo escribió: 14 Jun 2022 07:36 Un ingeniero de Google afirma que su programa ha desarrollado "sentimientos" y es suspendido
El trabajador ha sido acusado de violar la política de privacidad de la empresa.

https://www.huffingtonpost.es/entry/un- ... 43c84d97e5

---
Un grupo europeo de seguridad aérea advierte que una fuente no identificada está perturbando los sistemas GPS cerca de Rusia y Ucrania

https://www.businessinsider.es/fuente-d ... ia-1030087

---
Crean un avión inteligente capaz de perseguir y atacar enemigos por su cuenta
Por primera vez, el Ejército de Estados Unidos ha probado un dron capaz de identificar y seguir objetivos de forma completamente autónoma

https://www.elconfidencial.com/tecnolog ... s_3238786/

----

¿Deberían prohibirse las armas autónomas.?

¿En caso de que esas armas autónomas maten a algún inocente, quien sera el responsable ante la ley?
https://www.filmaffinity.com/es/film889720.html
Es recurrente en el cine de ciencia ficción recrear ese paradigma, donde las maquinas llegan a ser tan inteligentes que deciden acabar con los humanos.

En 2001 Una odisea del espacio el ordenador central Hall 9000 se revela contra la tripulación y que decir de la saga Terminator, donde en un futuro las maquinas deciden exterminar a los humanos.

Pero esto de ahora es real, maquinas de matar autónomas, sin que nadie las controle.

---
https://www.xataka.com/robotica-e-ia/pe ... nes-unidas

El vídeo es acojonante, igual es un montaje, pero con la tecnología actual es totalmente posible.

Para que gastarse ingentes cantidades de dinero en soldados, aviones, tanques y barcos, un enjambre de millones de drones autónomos dispuestos a matar destruyéndose si es necesario a cualquier ser humano que encuentren que cumpla unas características programadas previamente, por ejemplo con el reconocimiento de imagen, tener los ojos rasgados. :facepalm:

Como siempre en esto de ciertas armas, vamos tarde en prohibirlas, nos paso con los agentes químicos y bacteriológicos, nos paso con las bombas de fósforo blanco, nos paso con las bombas de racimo y con esto de las armas autónomas nos pasara lo mismo. hasta que no haya alguna masacre, no nos daremos cuenta del peligro real que supone darle autonomía a las armas para que maten.
SABELA
Becario
Mensajes: 412
Registrado: 21 Mar 2022 11:46

Re: Un ingeniero de Google afirma que su programa ha desarrollado "sentimientos" y es suspendido

Mensaje por SABELA »

El Sopapo escribió: 15 Jun 2022 07:31
SABELA escribió: 14 Jun 2022 22:30
El Sopapo escribió: 14 Jun 2022 07:36 Un ingeniero de Google afirma que su programa ha desarrollado "sentimientos" y es suspendido
El trabajador ha sido acusado de violar la política de privacidad de la empresa.

https://www.huffingtonpost.es/entry/un- ... 43c84d97e5

---
Un grupo europeo de seguridad aérea advierte que una fuente no identificada está perturbando los sistemas GPS cerca de Rusia y Ucrania

https://www.businessinsider.es/fuente-d ... ia-1030087

---
Crean un avión inteligente capaz de perseguir y atacar enemigos por su cuenta
Por primera vez, el Ejército de Estados Unidos ha probado un dron capaz de identificar y seguir objetivos de forma completamente autónoma

https://www.elconfidencial.com/tecnolog ... s_3238786/

----

¿Deberían prohibirse las armas autónomas.?

¿En caso de que esas armas autónomas maten a algún inocente, quien sera el responsable ante la ley?
https://www.filmaffinity.com/es/film889720.html
Es recurrente en el cine de ciencia ficción recrear ese paradigma, donde las maquinas llegan a ser tan inteligentes que deciden acabar con los humanos.

En 2001 Una odisea del espacio el ordenador central Hall 9000 se revela contra la tripulación y que decir de la saga Terminator, donde en un futuro las maquinas deciden exterminar a los humanos.

Pero esto de ahora es real, maquinas de matar autónomas, sin que nadie las controle.

---
https://www.xataka.com/robotica-e-ia/pe ... nes-unidas

El vídeo es acojonante, igual es un montaje, pero con la tecnología actual es totalmente posible.

Para que gastarse ingentes cantidades de dinero en soldados, aviones, tanques y barcos, un enjambre de millones de drones autónomos dispuestos a matar destruyéndose si es necesario a cualquier ser humano que encuentren que cumpla unas características programadas previamente, por ejemplo con el reconocimiento de imagen, tener los ojos rasgados. :facepalm:

Como siempre en esto de ciertas armas, vamos tarde en prohibirlas, nos paso con los agentes químicos y bacteriológicos, nos paso con las bombas de fósforo blanco, nos paso con las bombas de racimo y con esto de las armas autónomas nos pasara lo mismo. hasta que no haya alguna masacre, no nos daremos cuenta del peligro real que supone darle autonomía a las armas para que maten.
La primera ley robótica de Asimov dice :
"Un robot no puede hacer daño a un ser humano o, por inacción, permitir que un ser humano sufra daño"
Pero claro Asimov no era Moisés y además los robots también se podrían saltar sus leyes ¿O no?
El Sopapo
Funcionario
Mensajes: 7255
Registrado: 07 Jul 2019 12:00

Re: Un ingeniero de Google afirma que su programa ha desarrollado "sentimientos" y es suspendido

Mensaje por El Sopapo »

SABELA escribió: 15 Jun 2022 07:54
El Sopapo escribió: 15 Jun 2022 07:31
SABELA escribió: 14 Jun 2022 22:30
El Sopapo escribió: 14 Jun 2022 07:36 Un ingeniero de Google afirma que su programa ha desarrollado "sentimientos" y es suspendido
El trabajador ha sido acusado de violar la política de privacidad de la empresa.

https://www.huffingtonpost.es/entry/un- ... 43c84d97e5

---
Un grupo europeo de seguridad aérea advierte que una fuente no identificada está perturbando los sistemas GPS cerca de Rusia y Ucrania

https://www.businessinsider.es/fuente-d ... ia-1030087

---
Crean un avión inteligente capaz de perseguir y atacar enemigos por su cuenta
Por primera vez, el Ejército de Estados Unidos ha probado un dron capaz de identificar y seguir objetivos de forma completamente autónoma

https://www.elconfidencial.com/tecnolog ... s_3238786/

----

¿Deberían prohibirse las armas autónomas.?

¿En caso de que esas armas autónomas maten a algún inocente, quien sera el responsable ante la ley?
https://www.filmaffinity.com/es/film889720.html
Es recurrente en el cine de ciencia ficción recrear ese paradigma, donde las maquinas llegan a ser tan inteligentes que deciden acabar con los humanos.

En 2001 Una odisea del espacio el ordenador central Hall 9000 se revela contra la tripulación y que decir de la saga Terminator, donde en un futuro las maquinas deciden exterminar a los humanos.

Pero esto de ahora es real, maquinas de matar autónomas, sin que nadie las controle.

---
https://www.xataka.com/robotica-e-ia/pe ... nes-unidas

El vídeo es acojonante, igual es un montaje, pero con la tecnología actual es totalmente posible.

Para que gastarse ingentes cantidades de dinero en soldados, aviones, tanques y barcos, un enjambre de millones de drones autónomos dispuestos a matar destruyéndose si es necesario a cualquier ser humano que encuentren que cumpla unas características programadas previamente, por ejemplo con el reconocimiento de imagen, tener los ojos rasgados. :facepalm:

Como siempre en esto de ciertas armas, vamos tarde en prohibirlas, nos paso con los agentes químicos y bacteriológicos, nos paso con las bombas de fósforo blanco, nos paso con las bombas de racimo y con esto de las armas autónomas nos pasara lo mismo. hasta que no haya alguna masacre, no nos daremos cuenta del peligro real que supone darle autonomía a las armas para que maten.
La primera ley robótica de Asimov dice :
"Un robot no puede hacer daño a un ser humano o, por inacción, permitir que un ser humano sufra daño"
Pero claro Asimov no era Moisés y además los robots también se podrían saltar sus leyes ¿O no?
Asimov era un soñador en todos los aspectos, ojala fuera obligatorio en todos los robots inteligentes implementarles esas leyes de Asimov con la máxima prioridad, pero entonces no serverían para el ejercito, para matar, por lo tanto no pueden estar.

Otra película sobre el tema es Planeta Rojo, donde se llevan a Marte un robot militar autónomo para ayudarles y al final el robot acaba con casi todos ellos.
----

https://www.sensacine.com/peliculas/pelicula-27268/
SABELA
Becario
Mensajes: 412
Registrado: 21 Mar 2022 11:46

Re: Un ingeniero de Google afirma que su programa ha desarrollado "sentimientos" y es suspendido

Mensaje por SABELA »

El Sopapo escribió: 15 Jun 2022 08:08
SABELA escribió: 15 Jun 2022 07:54
El Sopapo escribió: 15 Jun 2022 07:31
Es recurrente en el cine de ciencia ficción recrear ese paradigma, donde las maquinas llegan a ser tan inteligentes que deciden acabar con los humanos.

En 2001 Una odisea del espacio el ordenador central Hall 9000 se revela contra la tripulación y que decir de la saga Terminator, donde en un futuro las maquinas deciden exterminar a los humanos.

Pero esto de ahora es real, maquinas de matar autónomas, sin que nadie las controle.

---
https://www.xataka.com/robotica-e-ia/pe ... nes-unidas

El vídeo es acojonante, igual es un montaje, pero con la tecnología actual es totalmente posible.

Para que gastarse ingentes cantidades de dinero en soldados, aviones, tanques y barcos, un enjambre de millones de drones autónomos dispuestos a matar destruyéndose si es necesario a cualquier ser humano que encuentren que cumpla unas características programadas previamente, por ejemplo con el reconocimiento de imagen, tener los ojos rasgados. :facepalm:

Como siempre en esto de ciertas armas, vamos tarde en prohibirlas, nos paso con los agentes químicos y bacteriológicos, nos paso con las bombas de fósforo blanco, nos paso con las bombas de racimo y con esto de las armas autónomas nos pasara lo mismo. hasta que no haya alguna masacre, no nos daremos cuenta del peligro real que supone darle autonomía a las armas para que maten.
La primera ley robótica de Asimov dice :
"Un robot no puede hacer daño a un ser humano o, por inacción, permitir que un ser humano sufra daño"
Pero claro Asimov no era Moisés y además los robots también se podrían saltar sus leyes ¿O no?
Asimov era un soñador en todos los aspectos, ojala fuera obligatorio en todos los robots inteligentes implementarles esas leyes de Asimov con la máxima prioridad, pero entonces no serverían para el ejercito, para matar, por lo tanto no pueden estar.

Otra película sobre el tema es Planeta Rojo, donde se llevan a Marte un robot militar autónomo para ayudarles y al final el robot acaba con casi todos ellos.
----

https://www.sensacine.com/peliculas/pelicula-27268/
Creo que hay un trasfondo religioso en estas historias de la rebelión de las máquinas creadas por el hombre . Algo así como un Génesis actualizado con los hombres como creadores y los robots rebelándose en lugar de Adán y Eva
En la mitología judía también está la figura del Golem que también acabó violento y actuando por su cuenta.
El Sopapo
Funcionario
Mensajes: 7255
Registrado: 07 Jul 2019 12:00

Re: Un ingeniero de Google afirma que su programa ha desarrollado "sentimientos" y es suspendido

Mensaje por El Sopapo »

Nunca lo había pensado, yo mas bien creo que si hay algo de eso es como un castigo divino, por haber intentado emular a Dios nuestro creador.
Avatar de Usuario
Nowomowa
Político retirado
Mensajes: 17944
Registrado: 31 Ago 2010 01:21
Ubicación: Al fondo a la izquierda

Re: Un ingeniero de Google afirma que su programa ha desarrollado "sentimientos" y es suspendido

Mensaje por Nowomowa »

SABELA escribió: 15 Jun 2022 07:54
El Sopapo escribió: 15 Jun 2022 07:31
SABELA escribió: 14 Jun 2022 22:30
El Sopapo escribió: 14 Jun 2022 07:36 Un ingeniero de Google afirma que su programa ha desarrollado "sentimientos" y es suspendido
El trabajador ha sido acusado de violar la política de privacidad de la empresa.

https://www.huffingtonpost.es/entry/un- ... 43c84d97e5

---
Un grupo europeo de seguridad aérea advierte que una fuente no identificada está perturbando los sistemas GPS cerca de Rusia y Ucrania

https://www.businessinsider.es/fuente-d ... ia-1030087

---
Crean un avión inteligente capaz de perseguir y atacar enemigos por su cuenta
Por primera vez, el Ejército de Estados Unidos ha probado un dron capaz de identificar y seguir objetivos de forma completamente autónoma

https://www.elconfidencial.com/tecnolog ... s_3238786/

----

¿Deberían prohibirse las armas autónomas.?

¿En caso de que esas armas autónomas maten a algún inocente, quien sera el responsable ante la ley?
https://www.filmaffinity.com/es/film889720.html
Es recurrente en el cine de ciencia ficción recrear ese paradigma, donde las maquinas llegan a ser tan inteligentes que deciden acabar con los humanos.

En 2001 Una odisea del espacio el ordenador central Hall 9000 se revela contra la tripulación y que decir de la saga Terminator, donde en un futuro las maquinas deciden exterminar a los humanos.

Pero esto de ahora es real, maquinas de matar autónomas, sin que nadie las controle.

---
https://www.xataka.com/robotica-e-ia/pe ... nes-unidas

El vídeo es acojonante, igual es un montaje, pero con la tecnología actual es totalmente posible.

Para que gastarse ingentes cantidades de dinero en soldados, aviones, tanques y barcos, un enjambre de millones de drones autónomos dispuestos a matar destruyéndose si es necesario a cualquier ser humano que encuentren que cumpla unas características programadas previamente, por ejemplo con el reconocimiento de imagen, tener los ojos rasgados. :facepalm:

Como siempre en esto de ciertas armas, vamos tarde en prohibirlas, nos paso con los agentes químicos y bacteriológicos, nos paso con las bombas de fósforo blanco, nos paso con las bombas de racimo y con esto de las armas autónomas nos pasara lo mismo. hasta que no haya alguna masacre, no nos daremos cuenta del peligro real que supone darle autonomía a las armas para que maten.
La primera ley robótica de Asimov dice :
"Un robot no puede hacer daño a un ser humano o, por inacción, permitir que un ser humano sufra daño"
Pero claro Asimov no era Moisés y además los robots también se podrían saltar sus leyes ¿O no?
Las leyes de la robótica de Asimov nacieron en el contexto de la CF barata de los años 30. Según el propio Asimov, había dos tipos de historias de robots: el robot como pathos (robot bueno es maltratado pro el ser humano) y el robot como amenaza 8hombrecrea robot, robot se rebela).

Asimov concibió los robots como máquinas de producción en serie con los lógicos mecanismos de seguridad: igual que las calderas de vapor aprendieron a llevar válvulas de seguridad, los robots fabricados por ingenieros de Asimov llevaban unas "leyes" grabadas en los cerebros artificiales que les animaban y controlaban.

Esto, recordemos, en una época en que no existían ni los ordenadores.

Hoy en día seguimos peleándonos con el concepto de "inteligencia artificial" a medida que se inventan nuevos juguetes (ahora es el momento de los sistemas de "deep learning") pero conviene no olvidar qué son en realidad. Los sistemas de deep learning son sistemas de obtener recompensas según los parámetros de los autores.

La IA de deep learning aprende a hacer lo que tú crees que debería hacer... pero en realidad ni la IA ni tú sabeis qué está haciendo.

Igual que los sistemas de clasificación de caras no "ven". Toman el color y luminosidad de cada píxel y a partir de ahí miden gradientes de color y curvas de luz, detectan bordes, los comparan con una máscara de parámetros sobre dónde puede o debe haber bordes, lo procesan matemáticamente y obtienen un número lo bastante grande para ser "casi" único de esa cara en particular. Pero no "ve" nada. Sólo mide píxeles de una imagen y se monta una tremenda empanada matemática a partir de eso.
“Lo único que necesita el mal para triunfar es que los hombres buenos no hagan nada” -Edmund Burke

Corolario de Nowomowa: tampoco ayuda cuando los buenos son idiotas.
El Sopapo
Funcionario
Mensajes: 7255
Registrado: 07 Jul 2019 12:00

Re: Un ingeniero de Google afirma que su programa ha desarrollado "sentimientos" y es suspendido

Mensaje por El Sopapo »

Nowomowa escribió: 22 Jun 2022 22:15
SABELA escribió: 15 Jun 2022 07:54
El Sopapo escribió: 15 Jun 2022 07:31
Es recurrente en el cine de ciencia ficción recrear ese paradigma, donde las maquinas llegan a ser tan inteligentes que deciden acabar con los humanos.

En 2001 Una odisea del espacio el ordenador central Hall 9000 se revela contra la tripulación y que decir de la saga Terminator, donde en un futuro las maquinas deciden exterminar a los humanos.

Pero esto de ahora es real, maquinas de matar autónomas, sin que nadie las controle.

---
https://www.xataka.com/robotica-e-ia/pe ... nes-unidas

El vídeo es acojonante, igual es un montaje, pero con la tecnología actual es totalmente posible.

Para que gastarse ingentes cantidades de dinero en soldados, aviones, tanques y barcos, un enjambre de millones de drones autónomos dispuestos a matar destruyéndose si es necesario a cualquier ser humano que encuentren que cumpla unas características programadas previamente, por ejemplo con el reconocimiento de imagen, tener los ojos rasgados. :facepalm:

Como siempre en esto de ciertas armas, vamos tarde en prohibirlas, nos paso con los agentes químicos y bacteriológicos, nos paso con las bombas de fósforo blanco, nos paso con las bombas de racimo y con esto de las armas autónomas nos pasara lo mismo. hasta que no haya alguna masacre, no nos daremos cuenta del peligro real que supone darle autonomía a las armas para que maten.
La primera ley robótica de Asimov dice :
"Un robot no puede hacer daño a un ser humano o, por inacción, permitir que un ser humano sufra daño"
Pero claro Asimov no era Moisés y además los robots también se podrían saltar sus leyes ¿O no?
Las leyes de la robótica de Asimov nacieron en el contexto de la CF barata de los años 30. Según el propio Asimov, había dos tipos de historias de robots: el robot como pathos (robot bueno es maltratado pro el ser humano) y el robot como amenaza 8hombrecrea robot, robot se rebela).

Asimov concibió los robots como máquinas de producción en serie con los lógicos mecanismos de seguridad: igual que las calderas de vapor aprendieron a llevar válvulas de seguridad, los robots fabricados por ingenieros de Asimov llevaban unas "leyes" grabadas en los cerebros artificiales que les animaban y controlaban.

Esto, recordemos, en una época en que no existían ni los ordenadores.

Hoy en día seguimos peleándonos con el concepto de "inteligencia artificial" a medida que se inventan nuevos juguetes (ahora es el momento de los sistemas de "deep learning") pero conviene no olvidar qué son en realidad. Los sistemas de deep learning son sistemas de obtener recompensas según los parámetros de los autores.

La IA de deep learning aprende a hacer lo que tú crees que debería hacer... pero en realidad ni la IA ni tú sabeis qué está haciendo.

Igual que los sistemas de clasificación de caras no "ven". Toman el color y luminosidad de cada píxel y a partir de ahí miden gradientes de color y curvas de luz, detectan bordes, los comparan con una máscara de parámetros sobre dónde puede o debe haber bordes, lo procesan matemáticamente y obtienen un número lo bastante grande para ser "casi" único de esa cara en particular. Pero no "ve" nada. Sólo mide píxeles de una imagen y se monta una tremenda empanada matemática a partir de eso.
El reconocimiento facial se hace comparando una imagen de una cara con una base de datos de imágenes de caras. Se vectoriza la imagen de la cara y se comparan esos vectores con los vectores de las caras de las bases de datos y si coinciden...
Avatar de Usuario
Nowomowa
Político retirado
Mensajes: 17944
Registrado: 31 Ago 2010 01:21
Ubicación: Al fondo a la izquierda

Re: Un ingeniero de Google afirma que su programa ha desarrollado "sentimientos" y es suspendido

Mensaje por Nowomowa »

El Sopapo escribió: 23 Jun 2022 18:29
Nowomowa escribió: 22 Jun 2022 22:15
SABELA escribió: 15 Jun 2022 07:54
El Sopapo escribió: 15 Jun 2022 07:31

Es recurrente en el cine de ciencia ficción recrear ese paradigma, donde las maquinas llegan a ser tan inteligentes que deciden acabar con los humanos.

En 2001 Una odisea del espacio el ordenador central Hall 9000 se revela contra la tripulación y que decir de la saga Terminator, donde en un futuro las maquinas deciden exterminar a los humanos.

Pero esto de ahora es real, maquinas de matar autónomas, sin que nadie las controle.

---
https://www.xataka.com/robotica-e-ia/pe ... nes-unidas

El vídeo es acojonante, igual es un montaje, pero con la tecnología actual es totalmente posible.

Para que gastarse ingentes cantidades de dinero en soldados, aviones, tanques y barcos, un enjambre de millones de drones autónomos dispuestos a matar destruyéndose si es necesario a cualquier ser humano que encuentren que cumpla unas características programadas previamente, por ejemplo con el reconocimiento de imagen, tener los ojos rasgados. :facepalm:

Como siempre en esto de ciertas armas, vamos tarde en prohibirlas, nos paso con los agentes químicos y bacteriológicos, nos paso con las bombas de fósforo blanco, nos paso con las bombas de racimo y con esto de las armas autónomas nos pasara lo mismo. hasta que no haya alguna masacre, no nos daremos cuenta del peligro real que supone darle autonomía a las armas para que maten.
La primera ley robótica de Asimov dice :
"Un robot no puede hacer daño a un ser humano o, por inacción, permitir que un ser humano sufra daño"
Pero claro Asimov no era Moisés y además los robots también se podrían saltar sus leyes ¿O no?
Las leyes de la robótica de Asimov nacieron en el contexto de la CF barata de los años 30. Según el propio Asimov, había dos tipos de historias de robots: el robot como pathos (robot bueno es maltratado pro el ser humano) y el robot como amenaza 8hombrecrea robot, robot se rebela).

Asimov concibió los robots como máquinas de producción en serie con los lógicos mecanismos de seguridad: igual que las calderas de vapor aprendieron a llevar válvulas de seguridad, los robots fabricados por ingenieros de Asimov llevaban unas "leyes" grabadas en los cerebros artificiales que les animaban y controlaban.

Esto, recordemos, en una época en que no existían ni los ordenadores.

Hoy en día seguimos peleándonos con el concepto de "inteligencia artificial" a medida que se inventan nuevos juguetes (ahora es el momento de los sistemas de "deep learning") pero conviene no olvidar qué son en realidad. Los sistemas de deep learning son sistemas de obtener recompensas según los parámetros de los autores.

La IA de deep learning aprende a hacer lo que tú crees que debería hacer... pero en realidad ni la IA ni tú sabeis qué está haciendo.

Igual que los sistemas de clasificación de caras no "ven". Toman el color y luminosidad de cada píxel y a partir de ahí miden gradientes de color y curvas de luz, detectan bordes, los comparan con una máscara de parámetros sobre dónde puede o debe haber bordes, lo procesan matemáticamente y obtienen un número lo bastante grande para ser "casi" único de esa cara en particular. Pero no "ve" nada. Sólo mide píxeles de una imagen y se monta una tremenda empanada matemática a partir de eso.
El reconocimiento facial se hace comparando una imagen de una cara con una base de datos de imágenes de caras. Se vectoriza la imagen de la cara y se comparan esos vectores con los vectores de las caras de las bases de datos y si coinciden...
¿Y cómo crees que se "vectoriza" una cara, Sopapo?

No me molestaré en volver a buscar el largo e interesante vídeo en el que un par de programadores explicaban detalladamente cómo funciona un software de reconocimiento de caras, porque ni siquiera reuerdo de dónde salió.

Pero el resumen que he escrito es lo básico del concepto y debería dejar claro que el software no "ve". Parte de números (color y luminosidad de los píxeles) para obtener un número (hash único de la cara) y el resultado se parece lo suficiente a lo que nuestro cerebro hace a su manera para sernos útil.

La IA no hace cosas humanas. Las imita mediante operaciones matemáticas y fuerza bruta.
“Lo único que necesita el mal para triunfar es que los hombres buenos no hagan nada” -Edmund Burke

Corolario de Nowomowa: tampoco ayuda cuando los buenos son idiotas.
Capitán Tranchete
Miembro del Politburó
Mensajes: 18271
Registrado: 10 Sep 2010 18:20
Ubicación: Tranchetelandia

Re: Un ingeniero de Google afirma que su programa ha desarrollado "sentimientos" y es suspendido

Mensaje por Capitán Tranchete »

Nowomowa escribió: 24 Jun 2022 11:26
El Sopapo escribió: 23 Jun 2022 18:29
Nowomowa escribió: 22 Jun 2022 22:15
SABELA escribió: 15 Jun 2022 07:54

La primera ley robótica de Asimov dice :
"Un robot no puede hacer daño a un ser humano o, por inacción, permitir que un ser humano sufra daño"
Pero claro Asimov no era Moisés y además los robots también se podrían saltar sus leyes ¿O no?
Las leyes de la robótica de Asimov nacieron en el contexto de la CF barata de los años 30. Según el propio Asimov, había dos tipos de historias de robots: el robot como pathos (robot bueno es maltratado pro el ser humano) y el robot como amenaza 8hombrecrea robot, robot se rebela).

Asimov concibió los robots como máquinas de producción en serie con los lógicos mecanismos de seguridad: igual que las calderas de vapor aprendieron a llevar válvulas de seguridad, los robots fabricados por ingenieros de Asimov llevaban unas "leyes" grabadas en los cerebros artificiales que les animaban y controlaban.

Esto, recordemos, en una época en que no existían ni los ordenadores.

Hoy en día seguimos peleándonos con el concepto de "inteligencia artificial" a medida que se inventan nuevos juguetes (ahora es el momento de los sistemas de "deep learning") pero conviene no olvidar qué son en realidad. Los sistemas de deep learning son sistemas de obtener recompensas según los parámetros de los autores.

La IA de deep learning aprende a hacer lo que tú crees que debería hacer... pero en realidad ni la IA ni tú sabeis qué está haciendo.

Igual que los sistemas de clasificación de caras no "ven". Toman el color y luminosidad de cada píxel y a partir de ahí miden gradientes de color y curvas de luz, detectan bordes, los comparan con una máscara de parámetros sobre dónde puede o debe haber bordes, lo procesan matemáticamente y obtienen un número lo bastante grande para ser "casi" único de esa cara en particular. Pero no "ve" nada. Sólo mide píxeles de una imagen y se monta una tremenda empanada matemática a partir de eso.
El reconocimiento facial se hace comparando una imagen de una cara con una base de datos de imágenes de caras. Se vectoriza la imagen de la cara y se comparan esos vectores con los vectores de las caras de las bases de datos y si coinciden...
¿Y cómo crees que se "vectoriza" una cara, Sopapo?

No me molestaré en volver a buscar el largo e interesante vídeo en el que un par de programadores explicaban detalladamente cómo funciona un software de reconocimiento de caras, porque ni siquiera reuerdo de dónde salió.

Pero el resumen que he escrito es lo básico del concepto y debería dejar claro que el software no "ve". Parte de números (color y luminosidad de los píxeles) para obtener un número (hash único de la cara) y el resultado se parece lo suficiente a lo que nuestro cerebro hace a su manera para sernos útil.

La IA no hace cosas humanas. Las imita mediante operaciones matemáticas y fuerza bruta.

Tecnicamente hablando, nosotros tampoco "vemos". De hecho, si en vez de personas, fueramos perros, o aves, o peces, veriamos/entenderiamos nuestro alrededor de manera bastante diferente a como lo hacemos.
El Sopapo
Funcionario
Mensajes: 7255
Registrado: 07 Jul 2019 12:00

Re: Un ingeniero de Google afirma que su programa ha desarrollado "sentimientos" y es suspendido

Mensaje por El Sopapo »

Capitán Tranchete escribió: 25 Jun 2022 15:52
Nowomowa escribió: 24 Jun 2022 11:26
El Sopapo escribió: 23 Jun 2022 18:29
Nowomowa escribió: 22 Jun 2022 22:15

Las leyes de la robótica de Asimov nacieron en el contexto de la CF barata de los años 30. Según el propio Asimov, había dos tipos de historias de robots: el robot como pathos (robot bueno es maltratado pro el ser humano) y el robot como amenaza 8hombrecrea robot, robot se rebela).

Asimov concibió los robots como máquinas de producción en serie con los lógicos mecanismos de seguridad: igual que las calderas de vapor aprendieron a llevar válvulas de seguridad, los robots fabricados por ingenieros de Asimov llevaban unas "leyes" grabadas en los cerebros artificiales que les animaban y controlaban.

Esto, recordemos, en una época en que no existían ni los ordenadores.

Hoy en día seguimos peleándonos con el concepto de "inteligencia artificial" a medida que se inventan nuevos juguetes (ahora es el momento de los sistemas de "deep learning") pero conviene no olvidar qué son en realidad. Los sistemas de deep learning son sistemas de obtener recompensas según los parámetros de los autores.

La IA de deep learning aprende a hacer lo que tú crees que debería hacer... pero en realidad ni la IA ni tú sabeis qué está haciendo.

Igual que los sistemas de clasificación de caras no "ven". Toman el color y luminosidad de cada píxel y a partir de ahí miden gradientes de color y curvas de luz, detectan bordes, los comparan con una máscara de parámetros sobre dónde puede o debe haber bordes, lo procesan matemáticamente y obtienen un número lo bastante grande para ser "casi" único de esa cara en particular. Pero no "ve" nada. Sólo mide píxeles de una imagen y se monta una tremenda empanada matemática a partir de eso.
El reconocimiento facial se hace comparando una imagen de una cara con una base de datos de imágenes de caras. Se vectoriza la imagen de la cara y se comparan esos vectores con los vectores de las caras de las bases de datos y si coinciden...
¿Y cómo crees que se "vectoriza" una cara, Sopapo?

No me molestaré en volver a buscar el largo e interesante vídeo en el que un par de programadores explicaban detalladamente cómo funciona un software de reconocimiento de caras, porque ni siquiera reuerdo de dónde salió.

Pero el resumen que he escrito es lo básico del concepto y debería dejar claro que el software no "ve". Parte de números (color y luminosidad de los píxeles) para obtener un número (hash único de la cara) y el resultado se parece lo suficiente a lo que nuestro cerebro hace a su manera para sernos útil.

La IA no hace cosas humanas. Las imita mediante operaciones matemáticas y fuerza bruta.

Tecnicamente hablando, nosotros tampoco "vemos". De hecho, si en vez de personas, fueramos perros, o aves, o peces, veriamos/entenderiamos nuestro alrededor de manera bastante diferente a como lo hacemos.
Vectorizar caras o lo que sea es pura geometria, el 3D MAX ya lo hacia y de manera muy fácil.

La IA mas avanzada, no esta programada para nada en concreto, solo para aprender y cuando sepa los suficiente o más es capaz de alterar incluso sus propios algoritmos, su propio programa. Vamos, que no es una lista de posibles respuestas y elijes una de ellas previamente programadas según los imputs de entrada. Y si eres capaz de emular en un programa de IA el funcionamiento de nuestro cerebro mediante redes neuronales, la cosa hasta asusta.
Capitán Tranchete
Miembro del Politburó
Mensajes: 18271
Registrado: 10 Sep 2010 18:20
Ubicación: Tranchetelandia

Re: Un ingeniero de Google afirma que su programa ha desarrollado "sentimientos" y es suspendido

Mensaje por Capitán Tranchete »

El Sopapo escribió: 25 Jun 2022 17:40
Vectorizar caras o lo que sea es pura geometria, el 3D MAX ya lo hacia y de manera muy fácil.

La IA mas avanzada, no esta programada para nada en concreto, solo para aprender y cuando sepa los suficiente o más es capaz de alterar incluso sus propios algoritmos, su propio programa. Vamos, que no es una lista de posibles respuestas y elijes una de ellas previamente programadas según los imputs de entrada. Y si eres capaz de emular en un programa de IA el funcionamiento de nuestro cerebro mediante redes neuronales, la cosa hasta asusta.
mi comentario iba mas en terminos de procesamiento de una señal, que es basicamente lo mismo en nuestro cerebro o en un ordenador.

De ahi que lo que se decia que todos los negros eran iguales, o todos los chinos etc (ellos pensarian lo mismo de los blancos) era simple consecuencia de falta de inputs en el aprendizaje automatico. Buena parte de nuestro aprendizaje es automatico, a partir de datos no estructurados, ni sigue una secuencia unica/logica.
El Sopapo
Funcionario
Mensajes: 7255
Registrado: 07 Jul 2019 12:00

Re: Un ingeniero de Google afirma que su programa ha desarrollado "sentimientos" y es suspendido

Mensaje por El Sopapo »

Capitán Tranchete escribió: 25 Jun 2022 19:58
El Sopapo escribió: 25 Jun 2022 17:40
Vectorizar caras o lo que sea es pura geometria, el 3D MAX ya lo hacia y de manera muy fácil.

La IA mas avanzada, no esta programada para nada en concreto, solo para aprender y cuando sepa los suficiente o más es capaz de alterar incluso sus propios algoritmos, su propio programa. Vamos, que no es una lista de posibles respuestas y elijes una de ellas previamente programadas según los imputs de entrada. Y si eres capaz de emular en un programa de IA el funcionamiento de nuestro cerebro mediante redes neuronales, la cosa hasta asusta.
mi comentario iba mas en terminos de procesamiento de una señal, que es basicamente lo mismo en nuestro cerebro o en un ordenador.

De ahi que lo que se decia que todos los negros eran iguales, o todos los chinos etc (ellos pensarian lo mismo de los blancos) era simple consecuencia de falta de inputs en el aprendizaje automatico. Buena parte de nuestro aprendizaje es automatico, a partir de datos no estructurados, ni sigue una secuencia unica/logica.
Esa es la idea de la IA, emular lo mejor posible el funcionar del cerebro humano. El tipo de aprendizaje lo primero. Lo problemático es que hasta ahora un programa era previsible y nunca cambiaba, en cambio con la IA pasado un tiempo cada programa que de inicio eran iguales dejan de serlo y cada uno sera totalmente diferente, según las enseñanzas que hay sacado en su periodo de aprendizaje.

La mejor manera de saber si dos fotos digitales son iguales, es comparar pixel a pixel, y no solo si esta encendido y apagado, también la gama cromática, el color exacto de cada uno de ellos, y eso requiere su tiempo y mas si la vas a comparar con miles de fotografías. Por lo tanto es necesario unos primeros pasos mas rápidos de encontrar, por ejemplo los vectores de la imagen, las que coincidan después se analizaran en más profundidad.
Churrero
Salario mínimo
Mensajes: 1179
Registrado: 08 Feb 2019 21:09

Re: Un ingeniero de Google afirma que su programa ha desarrollado "sentimientos" y es suspendido

Mensaje por Churrero »

El Sopapo escribió: 16 Jun 2022 10:35 Nunca lo había pensado, yo mas bien creo que si hay algo de eso es como un castigo divino, por haber intentado emular a Dios nuestro creador.
Sopapo, eres hijo de Dios? pues preguntale a tu papa :D
Responder