Un ingeniero de Google afirma que su programa ha desarrollado "sentimientos" y es suspendido
Un ingeniero de Google afirma que su programa ha desarrollado "sentimientos" y es suspendido
Un ingeniero de Google afirma que su programa ha desarrollado "sentimientos" y es suspendido
El trabajador ha sido acusado de violar la política de privacidad de la empresa.
https://www.huffingtonpost.es/entry/un- ... 43c84d97e5
---
Un grupo europeo de seguridad aérea advierte que una fuente no identificada está perturbando los sistemas GPS cerca de Rusia y Ucrania
https://www.businessinsider.es/fuente-d ... ia-1030087
---
Crean un avión inteligente capaz de perseguir y atacar enemigos por su cuenta
Por primera vez, el Ejército de Estados Unidos ha probado un dron capaz de identificar y seguir objetivos de forma completamente autónoma
https://www.elconfidencial.com/tecnolog ... s_3238786/
----
¿Deberían prohibirse las armas autónomas.?
¿En caso de que esas armas autónomas maten a algún inocente, quien sera el responsable ante la ley?
El trabajador ha sido acusado de violar la política de privacidad de la empresa.
https://www.huffingtonpost.es/entry/un- ... 43c84d97e5
---
Un grupo europeo de seguridad aérea advierte que una fuente no identificada está perturbando los sistemas GPS cerca de Rusia y Ucrania
https://www.businessinsider.es/fuente-d ... ia-1030087
---
Crean un avión inteligente capaz de perseguir y atacar enemigos por su cuenta
Por primera vez, el Ejército de Estados Unidos ha probado un dron capaz de identificar y seguir objetivos de forma completamente autónoma
https://www.elconfidencial.com/tecnolog ... s_3238786/
----
¿Deberían prohibirse las armas autónomas.?
¿En caso de que esas armas autónomas maten a algún inocente, quien sera el responsable ante la ley?
Re: Un ingeniero de Google afirma que su programa ha desarrollado "sentimientos" y es suspendido
https://www.filmaffinity.com/es/film889720.htmlVer citas anterioresEl Sopapo escribió: ↑14 Jun 2022 07:36 Un ingeniero de Google afirma que su programa ha desarrollado "sentimientos" y es suspendido
El trabajador ha sido acusado de violar la política de privacidad de la empresa.
https://www.huffingtonpost.es/entry/un- ... 43c84d97e5
---
Un grupo europeo de seguridad aérea advierte que una fuente no identificada está perturbando los sistemas GPS cerca de Rusia y Ucrania
https://www.businessinsider.es/fuente-d ... ia-1030087
---
Crean un avión inteligente capaz de perseguir y atacar enemigos por su cuenta
Por primera vez, el Ejército de Estados Unidos ha probado un dron capaz de identificar y seguir objetivos de forma completamente autónoma
https://www.elconfidencial.com/tecnolog ... s_3238786/
----
¿Deberían prohibirse las armas autónomas.?
¿En caso de que esas armas autónomas maten a algún inocente, quien sera el responsable ante la ley?
Re: Un ingeniero de Google afirma que su programa ha desarrollado "sentimientos" y es suspendido
Es recurrente en el cine de ciencia ficción recrear ese paradigma, donde las maquinas llegan a ser tan inteligentes que deciden acabar con los humanos.Ver citas anterioresSABELA escribió: ↑14 Jun 2022 22:30https://www.filmaffinity.com/es/film889720.htmlVer citas anterioresEl Sopapo escribió: ↑14 Jun 2022 07:36 Un ingeniero de Google afirma que su programa ha desarrollado "sentimientos" y es suspendido
El trabajador ha sido acusado de violar la política de privacidad de la empresa.
https://www.huffingtonpost.es/entry/un- ... 43c84d97e5
---
Un grupo europeo de seguridad aérea advierte que una fuente no identificada está perturbando los sistemas GPS cerca de Rusia y Ucrania
https://www.businessinsider.es/fuente-d ... ia-1030087
---
Crean un avión inteligente capaz de perseguir y atacar enemigos por su cuenta
Por primera vez, el Ejército de Estados Unidos ha probado un dron capaz de identificar y seguir objetivos de forma completamente autónoma
https://www.elconfidencial.com/tecnolog ... s_3238786/
----
¿Deberían prohibirse las armas autónomas.?
¿En caso de que esas armas autónomas maten a algún inocente, quien sera el responsable ante la ley?
En 2001 Una odisea del espacio el ordenador central Hall 9000 se revela contra la tripulación y que decir de la saga Terminator, donde en un futuro las maquinas deciden exterminar a los humanos.
Pero esto de ahora es real, maquinas de matar autónomas, sin que nadie las controle.
---
https://www.xataka.com/robotica-e-ia/pe ... nes-unidas
El vídeo es acojonante, igual es un montaje, pero con la tecnología actual es totalmente posible.
Para que gastarse ingentes cantidades de dinero en soldados, aviones, tanques y barcos, un enjambre de millones de drones autónomos dispuestos a matar destruyéndose si es necesario a cualquier ser humano que encuentren que cumpla unas características programadas previamente, por ejemplo con el reconocimiento de imagen, tener los ojos rasgados.

Como siempre en esto de ciertas armas, vamos tarde en prohibirlas, nos paso con los agentes químicos y bacteriológicos, nos paso con las bombas de fósforo blanco, nos paso con las bombas de racimo y con esto de las armas autónomas nos pasara lo mismo. hasta que no haya alguna masacre, no nos daremos cuenta del peligro real que supone darle autonomía a las armas para que maten.
Re: Un ingeniero de Google afirma que su programa ha desarrollado "sentimientos" y es suspendido
La primera ley robótica de Asimov dice :Ver citas anterioresEl Sopapo escribió: ↑15 Jun 2022 07:31Es recurrente en el cine de ciencia ficción recrear ese paradigma, donde las maquinas llegan a ser tan inteligentes que deciden acabar con los humanos.Ver citas anterioresSABELA escribió: ↑14 Jun 2022 22:30https://www.filmaffinity.com/es/film889720.htmlVer citas anterioresEl Sopapo escribió: ↑14 Jun 2022 07:36 Un ingeniero de Google afirma que su programa ha desarrollado "sentimientos" y es suspendido
El trabajador ha sido acusado de violar la política de privacidad de la empresa.
https://www.huffingtonpost.es/entry/un- ... 43c84d97e5
---
Un grupo europeo de seguridad aérea advierte que una fuente no identificada está perturbando los sistemas GPS cerca de Rusia y Ucrania
https://www.businessinsider.es/fuente-d ... ia-1030087
---
Crean un avión inteligente capaz de perseguir y atacar enemigos por su cuenta
Por primera vez, el Ejército de Estados Unidos ha probado un dron capaz de identificar y seguir objetivos de forma completamente autónoma
https://www.elconfidencial.com/tecnolog ... s_3238786/
----
¿Deberían prohibirse las armas autónomas.?
¿En caso de que esas armas autónomas maten a algún inocente, quien sera el responsable ante la ley?
En 2001 Una odisea del espacio el ordenador central Hall 9000 se revela contra la tripulación y que decir de la saga Terminator, donde en un futuro las maquinas deciden exterminar a los humanos.
Pero esto de ahora es real, maquinas de matar autónomas, sin que nadie las controle.
---
https://www.xataka.com/robotica-e-ia/pe ... nes-unidas
El vídeo es acojonante, igual es un montaje, pero con la tecnología actual es totalmente posible.
Para que gastarse ingentes cantidades de dinero en soldados, aviones, tanques y barcos, un enjambre de millones de drones autónomos dispuestos a matar destruyéndose si es necesario a cualquier ser humano que encuentren que cumpla unas características programadas previamente, por ejemplo con el reconocimiento de imagen, tener los ojos rasgados.![]()
Como siempre en esto de ciertas armas, vamos tarde en prohibirlas, nos paso con los agentes químicos y bacteriológicos, nos paso con las bombas de fósforo blanco, nos paso con las bombas de racimo y con esto de las armas autónomas nos pasara lo mismo. hasta que no haya alguna masacre, no nos daremos cuenta del peligro real que supone darle autonomía a las armas para que maten.
"Un robot no puede hacer daño a un ser humano o, por inacción, permitir que un ser humano sufra daño"
Pero claro Asimov no era Moisés y además los robots también se podrían saltar sus leyes ¿O no?
Re: Un ingeniero de Google afirma que su programa ha desarrollado "sentimientos" y es suspendido
Asimov era un soñador en todos los aspectos, ojala fuera obligatorio en todos los robots inteligentes implementarles esas leyes de Asimov con la máxima prioridad, pero entonces no serverían para el ejercito, para matar, por lo tanto no pueden estar.Ver citas anterioresSABELA escribió: ↑15 Jun 2022 07:54La primera ley robótica de Asimov dice :Ver citas anterioresEl Sopapo escribió: ↑15 Jun 2022 07:31Es recurrente en el cine de ciencia ficción recrear ese paradigma, donde las maquinas llegan a ser tan inteligentes que deciden acabar con los humanos.Ver citas anterioresSABELA escribió: ↑14 Jun 2022 22:30https://www.filmaffinity.com/es/film889720.htmlVer citas anterioresEl Sopapo escribió: ↑14 Jun 2022 07:36 Un ingeniero de Google afirma que su programa ha desarrollado "sentimientos" y es suspendido
El trabajador ha sido acusado de violar la política de privacidad de la empresa.
https://www.huffingtonpost.es/entry/un- ... 43c84d97e5
---
Un grupo europeo de seguridad aérea advierte que una fuente no identificada está perturbando los sistemas GPS cerca de Rusia y Ucrania
https://www.businessinsider.es/fuente-d ... ia-1030087
---
Crean un avión inteligente capaz de perseguir y atacar enemigos por su cuenta
Por primera vez, el Ejército de Estados Unidos ha probado un dron capaz de identificar y seguir objetivos de forma completamente autónoma
https://www.elconfidencial.com/tecnolog ... s_3238786/
----
¿Deberían prohibirse las armas autónomas.?
¿En caso de que esas armas autónomas maten a algún inocente, quien sera el responsable ante la ley?
En 2001 Una odisea del espacio el ordenador central Hall 9000 se revela contra la tripulación y que decir de la saga Terminator, donde en un futuro las maquinas deciden exterminar a los humanos.
Pero esto de ahora es real, maquinas de matar autónomas, sin que nadie las controle.
---
https://www.xataka.com/robotica-e-ia/pe ... nes-unidas
El vídeo es acojonante, igual es un montaje, pero con la tecnología actual es totalmente posible.
Para que gastarse ingentes cantidades de dinero en soldados, aviones, tanques y barcos, un enjambre de millones de drones autónomos dispuestos a matar destruyéndose si es necesario a cualquier ser humano que encuentren que cumpla unas características programadas previamente, por ejemplo con el reconocimiento de imagen, tener los ojos rasgados.![]()
Como siempre en esto de ciertas armas, vamos tarde en prohibirlas, nos paso con los agentes químicos y bacteriológicos, nos paso con las bombas de fósforo blanco, nos paso con las bombas de racimo y con esto de las armas autónomas nos pasara lo mismo. hasta que no haya alguna masacre, no nos daremos cuenta del peligro real que supone darle autonomía a las armas para que maten.
"Un robot no puede hacer daño a un ser humano o, por inacción, permitir que un ser humano sufra daño"
Pero claro Asimov no era Moisés y además los robots también se podrían saltar sus leyes ¿O no?
Otra película sobre el tema es Planeta Rojo, donde se llevan a Marte un robot militar autónomo para ayudarles y al final el robot acaba con casi todos ellos.
----
https://www.sensacine.com/peliculas/pelicula-27268/
Re: Un ingeniero de Google afirma que su programa ha desarrollado "sentimientos" y es suspendido
Creo que hay un trasfondo religioso en estas historias de la rebelión de las máquinas creadas por el hombre . Algo así como un Génesis actualizado con los hombres como creadores y los robots rebelándose en lugar de Adán y EvaVer citas anterioresEl Sopapo escribió: ↑15 Jun 2022 08:08Asimov era un soñador en todos los aspectos, ojala fuera obligatorio en todos los robots inteligentes implementarles esas leyes de Asimov con la máxima prioridad, pero entonces no serverían para el ejercito, para matar, por lo tanto no pueden estar.Ver citas anterioresSABELA escribió: ↑15 Jun 2022 07:54La primera ley robótica de Asimov dice :Ver citas anterioresEl Sopapo escribió: ↑15 Jun 2022 07:31Es recurrente en el cine de ciencia ficción recrear ese paradigma, donde las maquinas llegan a ser tan inteligentes que deciden acabar con los humanos.Ver citas anterioresSABELA escribió: ↑14 Jun 2022 22:30
https://www.filmaffinity.com/es/film889720.html
En 2001 Una odisea del espacio el ordenador central Hall 9000 se revela contra la tripulación y que decir de la saga Terminator, donde en un futuro las maquinas deciden exterminar a los humanos.
Pero esto de ahora es real, maquinas de matar autónomas, sin que nadie las controle.
---
https://www.xataka.com/robotica-e-ia/pe ... nes-unidas
El vídeo es acojonante, igual es un montaje, pero con la tecnología actual es totalmente posible.
Para que gastarse ingentes cantidades de dinero en soldados, aviones, tanques y barcos, un enjambre de millones de drones autónomos dispuestos a matar destruyéndose si es necesario a cualquier ser humano que encuentren que cumpla unas características programadas previamente, por ejemplo con el reconocimiento de imagen, tener los ojos rasgados.![]()
Como siempre en esto de ciertas armas, vamos tarde en prohibirlas, nos paso con los agentes químicos y bacteriológicos, nos paso con las bombas de fósforo blanco, nos paso con las bombas de racimo y con esto de las armas autónomas nos pasara lo mismo. hasta que no haya alguna masacre, no nos daremos cuenta del peligro real que supone darle autonomía a las armas para que maten.
"Un robot no puede hacer daño a un ser humano o, por inacción, permitir que un ser humano sufra daño"
Pero claro Asimov no era Moisés y además los robots también se podrían saltar sus leyes ¿O no?
Otra película sobre el tema es Planeta Rojo, donde se llevan a Marte un robot militar autónomo para ayudarles y al final el robot acaba con casi todos ellos.
----
https://www.sensacine.com/peliculas/pelicula-27268/
En la mitología judía también está la figura del Golem que también acabó violento y actuando por su cuenta.
Re: Un ingeniero de Google afirma que su programa ha desarrollado "sentimientos" y es suspendido
Nunca lo había pensado, yo mas bien creo que si hay algo de eso es como un castigo divino, por haber intentado emular a Dios nuestro creador.
- Nowomowa
- Funcionario
- Mensajes: 6998
- Registrado: 31 Ago 2010 01:21
- Ubicación: Al fondo a la izquierda
Re: Un ingeniero de Google afirma que su programa ha desarrollado "sentimientos" y es suspendido
Las leyes de la robótica de Asimov nacieron en el contexto de la CF barata de los años 30. Según el propio Asimov, había dos tipos de historias de robots: el robot como pathos (robot bueno es maltratado pro el ser humano) y el robot como amenaza 8hombrecrea robot, robot se rebela).Ver citas anterioresSABELA escribió: ↑15 Jun 2022 07:54La primera ley robótica de Asimov dice :Ver citas anterioresEl Sopapo escribió: ↑15 Jun 2022 07:31Es recurrente en el cine de ciencia ficción recrear ese paradigma, donde las maquinas llegan a ser tan inteligentes que deciden acabar con los humanos.Ver citas anterioresSABELA escribió: ↑14 Jun 2022 22:30https://www.filmaffinity.com/es/film889720.htmlVer citas anterioresEl Sopapo escribió: ↑14 Jun 2022 07:36 Un ingeniero de Google afirma que su programa ha desarrollado "sentimientos" y es suspendido
El trabajador ha sido acusado de violar la política de privacidad de la empresa.
https://www.huffingtonpost.es/entry/un- ... 43c84d97e5
---
Un grupo europeo de seguridad aérea advierte que una fuente no identificada está perturbando los sistemas GPS cerca de Rusia y Ucrania
https://www.businessinsider.es/fuente-d ... ia-1030087
---
Crean un avión inteligente capaz de perseguir y atacar enemigos por su cuenta
Por primera vez, el Ejército de Estados Unidos ha probado un dron capaz de identificar y seguir objetivos de forma completamente autónoma
https://www.elconfidencial.com/tecnolog ... s_3238786/
----
¿Deberían prohibirse las armas autónomas.?
¿En caso de que esas armas autónomas maten a algún inocente, quien sera el responsable ante la ley?
En 2001 Una odisea del espacio el ordenador central Hall 9000 se revela contra la tripulación y que decir de la saga Terminator, donde en un futuro las maquinas deciden exterminar a los humanos.
Pero esto de ahora es real, maquinas de matar autónomas, sin que nadie las controle.
---
https://www.xataka.com/robotica-e-ia/pe ... nes-unidas
El vídeo es acojonante, igual es un montaje, pero con la tecnología actual es totalmente posible.
Para que gastarse ingentes cantidades de dinero en soldados, aviones, tanques y barcos, un enjambre de millones de drones autónomos dispuestos a matar destruyéndose si es necesario a cualquier ser humano que encuentren que cumpla unas características programadas previamente, por ejemplo con el reconocimiento de imagen, tener los ojos rasgados.![]()
Como siempre en esto de ciertas armas, vamos tarde en prohibirlas, nos paso con los agentes químicos y bacteriológicos, nos paso con las bombas de fósforo blanco, nos paso con las bombas de racimo y con esto de las armas autónomas nos pasara lo mismo. hasta que no haya alguna masacre, no nos daremos cuenta del peligro real que supone darle autonomía a las armas para que maten.
"Un robot no puede hacer daño a un ser humano o, por inacción, permitir que un ser humano sufra daño"
Pero claro Asimov no era Moisés y además los robots también se podrían saltar sus leyes ¿O no?
Asimov concibió los robots como máquinas de producción en serie con los lógicos mecanismos de seguridad: igual que las calderas de vapor aprendieron a llevar válvulas de seguridad, los robots fabricados por ingenieros de Asimov llevaban unas "leyes" grabadas en los cerebros artificiales que les animaban y controlaban.
Esto, recordemos, en una época en que no existían ni los ordenadores.
Hoy en día seguimos peleándonos con el concepto de "inteligencia artificial" a medida que se inventan nuevos juguetes (ahora es el momento de los sistemas de "deep learning") pero conviene no olvidar qué son en realidad. Los sistemas de deep learning son sistemas de obtener recompensas según los parámetros de los autores.
La IA de deep learning aprende a hacer lo que tú crees que debería hacer... pero en realidad ni la IA ni tú sabeis qué está haciendo.
Igual que los sistemas de clasificación de caras no "ven". Toman el color y luminosidad de cada píxel y a partir de ahí miden gradientes de color y curvas de luz, detectan bordes, los comparan con una máscara de parámetros sobre dónde puede o debe haber bordes, lo procesan matemáticamente y obtienen un número lo bastante grande para ser "casi" único de esa cara en particular. Pero no "ve" nada. Sólo mide píxeles de una imagen y se monta una tremenda empanada matemática a partir de eso.
“Lo único que necesita el mal para triunfar es que los hombres buenos no hagan nada” -Edmund Burke
Corolario de Nowomowa: tampoco ayuda cuando los buenos son idiotas.
Corolario de Nowomowa: tampoco ayuda cuando los buenos son idiotas.
Re: Un ingeniero de Google afirma que su programa ha desarrollado "sentimientos" y es suspendido
El reconocimiento facial se hace comparando una imagen de una cara con una base de datos de imágenes de caras. Se vectoriza la imagen de la cara y se comparan esos vectores con los vectores de las caras de las bases de datos y si coinciden...Ver citas anterioresNowomowa escribió: ↑22 Jun 2022 22:15Las leyes de la robótica de Asimov nacieron en el contexto de la CF barata de los años 30. Según el propio Asimov, había dos tipos de historias de robots: el robot como pathos (robot bueno es maltratado pro el ser humano) y el robot como amenaza 8hombrecrea robot, robot se rebela).Ver citas anterioresSABELA escribió: ↑15 Jun 2022 07:54La primera ley robótica de Asimov dice :Ver citas anterioresEl Sopapo escribió: ↑15 Jun 2022 07:31Es recurrente en el cine de ciencia ficción recrear ese paradigma, donde las maquinas llegan a ser tan inteligentes que deciden acabar con los humanos.Ver citas anterioresSABELA escribió: ↑14 Jun 2022 22:30
https://www.filmaffinity.com/es/film889720.html
En 2001 Una odisea del espacio el ordenador central Hall 9000 se revela contra la tripulación y que decir de la saga Terminator, donde en un futuro las maquinas deciden exterminar a los humanos.
Pero esto de ahora es real, maquinas de matar autónomas, sin que nadie las controle.
---
https://www.xataka.com/robotica-e-ia/pe ... nes-unidas
El vídeo es acojonante, igual es un montaje, pero con la tecnología actual es totalmente posible.
Para que gastarse ingentes cantidades de dinero en soldados, aviones, tanques y barcos, un enjambre de millones de drones autónomos dispuestos a matar destruyéndose si es necesario a cualquier ser humano que encuentren que cumpla unas características programadas previamente, por ejemplo con el reconocimiento de imagen, tener los ojos rasgados.![]()
Como siempre en esto de ciertas armas, vamos tarde en prohibirlas, nos paso con los agentes químicos y bacteriológicos, nos paso con las bombas de fósforo blanco, nos paso con las bombas de racimo y con esto de las armas autónomas nos pasara lo mismo. hasta que no haya alguna masacre, no nos daremos cuenta del peligro real que supone darle autonomía a las armas para que maten.
"Un robot no puede hacer daño a un ser humano o, por inacción, permitir que un ser humano sufra daño"
Pero claro Asimov no era Moisés y además los robots también se podrían saltar sus leyes ¿O no?
Asimov concibió los robots como máquinas de producción en serie con los lógicos mecanismos de seguridad: igual que las calderas de vapor aprendieron a llevar válvulas de seguridad, los robots fabricados por ingenieros de Asimov llevaban unas "leyes" grabadas en los cerebros artificiales que les animaban y controlaban.
Esto, recordemos, en una época en que no existían ni los ordenadores.
Hoy en día seguimos peleándonos con el concepto de "inteligencia artificial" a medida que se inventan nuevos juguetes (ahora es el momento de los sistemas de "deep learning") pero conviene no olvidar qué son en realidad. Los sistemas de deep learning son sistemas de obtener recompensas según los parámetros de los autores.
La IA de deep learning aprende a hacer lo que tú crees que debería hacer... pero en realidad ni la IA ni tú sabeis qué está haciendo.
Igual que los sistemas de clasificación de caras no "ven". Toman el color y luminosidad de cada píxel y a partir de ahí miden gradientes de color y curvas de luz, detectan bordes, los comparan con una máscara de parámetros sobre dónde puede o debe haber bordes, lo procesan matemáticamente y obtienen un número lo bastante grande para ser "casi" único de esa cara en particular. Pero no "ve" nada. Sólo mide píxeles de una imagen y se monta una tremenda empanada matemática a partir de eso.
- Nowomowa
- Funcionario
- Mensajes: 6998
- Registrado: 31 Ago 2010 01:21
- Ubicación: Al fondo a la izquierda
Re: Un ingeniero de Google afirma que su programa ha desarrollado "sentimientos" y es suspendido
¿Y cómo crees que se "vectoriza" una cara, Sopapo?Ver citas anterioresEl Sopapo escribió: ↑23 Jun 2022 18:29El reconocimiento facial se hace comparando una imagen de una cara con una base de datos de imágenes de caras. Se vectoriza la imagen de la cara y se comparan esos vectores con los vectores de las caras de las bases de datos y si coinciden...Ver citas anterioresNowomowa escribió: ↑22 Jun 2022 22:15Las leyes de la robótica de Asimov nacieron en el contexto de la CF barata de los años 30. Según el propio Asimov, había dos tipos de historias de robots: el robot como pathos (robot bueno es maltratado pro el ser humano) y el robot como amenaza 8hombrecrea robot, robot se rebela).Ver citas anterioresSABELA escribió: ↑15 Jun 2022 07:54La primera ley robótica de Asimov dice :Ver citas anterioresEl Sopapo escribió: ↑15 Jun 2022 07:31
Es recurrente en el cine de ciencia ficción recrear ese paradigma, donde las maquinas llegan a ser tan inteligentes que deciden acabar con los humanos.
En 2001 Una odisea del espacio el ordenador central Hall 9000 se revela contra la tripulación y que decir de la saga Terminator, donde en un futuro las maquinas deciden exterminar a los humanos.
Pero esto de ahora es real, maquinas de matar autónomas, sin que nadie las controle.
---
https://www.xataka.com/robotica-e-ia/pe ... nes-unidas
El vídeo es acojonante, igual es un montaje, pero con la tecnología actual es totalmente posible.
Para que gastarse ingentes cantidades de dinero en soldados, aviones, tanques y barcos, un enjambre de millones de drones autónomos dispuestos a matar destruyéndose si es necesario a cualquier ser humano que encuentren que cumpla unas características programadas previamente, por ejemplo con el reconocimiento de imagen, tener los ojos rasgados.![]()
Como siempre en esto de ciertas armas, vamos tarde en prohibirlas, nos paso con los agentes químicos y bacteriológicos, nos paso con las bombas de fósforo blanco, nos paso con las bombas de racimo y con esto de las armas autónomas nos pasara lo mismo. hasta que no haya alguna masacre, no nos daremos cuenta del peligro real que supone darle autonomía a las armas para que maten.
"Un robot no puede hacer daño a un ser humano o, por inacción, permitir que un ser humano sufra daño"
Pero claro Asimov no era Moisés y además los robots también se podrían saltar sus leyes ¿O no?
Asimov concibió los robots como máquinas de producción en serie con los lógicos mecanismos de seguridad: igual que las calderas de vapor aprendieron a llevar válvulas de seguridad, los robots fabricados por ingenieros de Asimov llevaban unas "leyes" grabadas en los cerebros artificiales que les animaban y controlaban.
Esto, recordemos, en una época en que no existían ni los ordenadores.
Hoy en día seguimos peleándonos con el concepto de "inteligencia artificial" a medida que se inventan nuevos juguetes (ahora es el momento de los sistemas de "deep learning") pero conviene no olvidar qué son en realidad. Los sistemas de deep learning son sistemas de obtener recompensas según los parámetros de los autores.
La IA de deep learning aprende a hacer lo que tú crees que debería hacer... pero en realidad ni la IA ni tú sabeis qué está haciendo.
Igual que los sistemas de clasificación de caras no "ven". Toman el color y luminosidad de cada píxel y a partir de ahí miden gradientes de color y curvas de luz, detectan bordes, los comparan con una máscara de parámetros sobre dónde puede o debe haber bordes, lo procesan matemáticamente y obtienen un número lo bastante grande para ser "casi" único de esa cara en particular. Pero no "ve" nada. Sólo mide píxeles de una imagen y se monta una tremenda empanada matemática a partir de eso.
No me molestaré en volver a buscar el largo e interesante vídeo en el que un par de programadores explicaban detalladamente cómo funciona un software de reconocimiento de caras, porque ni siquiera reuerdo de dónde salió.
Pero el resumen que he escrito es lo básico del concepto y debería dejar claro que el software no "ve". Parte de números (color y luminosidad de los píxeles) para obtener un número (hash único de la cara) y el resultado se parece lo suficiente a lo que nuestro cerebro hace a su manera para sernos útil.
La IA no hace cosas humanas. Las imita mediante operaciones matemáticas y fuerza bruta.
“Lo único que necesita el mal para triunfar es que los hombres buenos no hagan nada” -Edmund Burke
Corolario de Nowomowa: tampoco ayuda cuando los buenos son idiotas.
Corolario de Nowomowa: tampoco ayuda cuando los buenos son idiotas.
-
- Miembro del Politburó
- Mensajes: 1328
- Registrado: 10 Sep 2010 18:20
- Ubicación: Tranchetelandia
Re: Un ingeniero de Google afirma que su programa ha desarrollado "sentimientos" y es suspendido
Ver citas anterioresNowomowa escribió: ↑24 Jun 2022 11:26¿Y cómo crees que se "vectoriza" una cara, Sopapo?Ver citas anterioresEl Sopapo escribió: ↑23 Jun 2022 18:29El reconocimiento facial se hace comparando una imagen de una cara con una base de datos de imágenes de caras. Se vectoriza la imagen de la cara y se comparan esos vectores con los vectores de las caras de las bases de datos y si coinciden...Ver citas anterioresNowomowa escribió: ↑22 Jun 2022 22:15Las leyes de la robótica de Asimov nacieron en el contexto de la CF barata de los años 30. Según el propio Asimov, había dos tipos de historias de robots: el robot como pathos (robot bueno es maltratado pro el ser humano) y el robot como amenaza 8hombrecrea robot, robot se rebela).
Asimov concibió los robots como máquinas de producción en serie con los lógicos mecanismos de seguridad: igual que las calderas de vapor aprendieron a llevar válvulas de seguridad, los robots fabricados por ingenieros de Asimov llevaban unas "leyes" grabadas en los cerebros artificiales que les animaban y controlaban.
Esto, recordemos, en una época en que no existían ni los ordenadores.
Hoy en día seguimos peleándonos con el concepto de "inteligencia artificial" a medida que se inventan nuevos juguetes (ahora es el momento de los sistemas de "deep learning") pero conviene no olvidar qué son en realidad. Los sistemas de deep learning son sistemas de obtener recompensas según los parámetros de los autores.
La IA de deep learning aprende a hacer lo que tú crees que debería hacer... pero en realidad ni la IA ni tú sabeis qué está haciendo.
Igual que los sistemas de clasificación de caras no "ven". Toman el color y luminosidad de cada píxel y a partir de ahí miden gradientes de color y curvas de luz, detectan bordes, los comparan con una máscara de parámetros sobre dónde puede o debe haber bordes, lo procesan matemáticamente y obtienen un número lo bastante grande para ser "casi" único de esa cara en particular. Pero no "ve" nada. Sólo mide píxeles de una imagen y se monta una tremenda empanada matemática a partir de eso.
No me molestaré en volver a buscar el largo e interesante vídeo en el que un par de programadores explicaban detalladamente cómo funciona un software de reconocimiento de caras, porque ni siquiera reuerdo de dónde salió.
Pero el resumen que he escrito es lo básico del concepto y debería dejar claro que el software no "ve". Parte de números (color y luminosidad de los píxeles) para obtener un número (hash único de la cara) y el resultado se parece lo suficiente a lo que nuestro cerebro hace a su manera para sernos útil.
La IA no hace cosas humanas. Las imita mediante operaciones matemáticas y fuerza bruta.
Tecnicamente hablando, nosotros tampoco "vemos". De hecho, si en vez de personas, fueramos perros, o aves, o peces, veriamos/entenderiamos nuestro alrededor de manera bastante diferente a como lo hacemos.
Re: Un ingeniero de Google afirma que su programa ha desarrollado "sentimientos" y es suspendido
Vectorizar caras o lo que sea es pura geometria, el 3D MAX ya lo hacia y de manera muy fácil.Ver citas anterioresCapitán Tranchete escribió: ↑25 Jun 2022 15:52Ver citas anterioresNowomowa escribió: ↑24 Jun 2022 11:26¿Y cómo crees que se "vectoriza" una cara, Sopapo?Ver citas anterioresEl Sopapo escribió: ↑23 Jun 2022 18:29El reconocimiento facial se hace comparando una imagen de una cara con una base de datos de imágenes de caras. Se vectoriza la imagen de la cara y se comparan esos vectores con los vectores de las caras de las bases de datos y si coinciden...Ver citas anterioresNowomowa escribió: ↑22 Jun 2022 22:15
Las leyes de la robótica de Asimov nacieron en el contexto de la CF barata de los años 30. Según el propio Asimov, había dos tipos de historias de robots: el robot como pathos (robot bueno es maltratado pro el ser humano) y el robot como amenaza 8hombrecrea robot, robot se rebela).
Asimov concibió los robots como máquinas de producción en serie con los lógicos mecanismos de seguridad: igual que las calderas de vapor aprendieron a llevar válvulas de seguridad, los robots fabricados por ingenieros de Asimov llevaban unas "leyes" grabadas en los cerebros artificiales que les animaban y controlaban.
Esto, recordemos, en una época en que no existían ni los ordenadores.
Hoy en día seguimos peleándonos con el concepto de "inteligencia artificial" a medida que se inventan nuevos juguetes (ahora es el momento de los sistemas de "deep learning") pero conviene no olvidar qué son en realidad. Los sistemas de deep learning son sistemas de obtener recompensas según los parámetros de los autores.
La IA de deep learning aprende a hacer lo que tú crees que debería hacer... pero en realidad ni la IA ni tú sabeis qué está haciendo.
Igual que los sistemas de clasificación de caras no "ven". Toman el color y luminosidad de cada píxel y a partir de ahí miden gradientes de color y curvas de luz, detectan bordes, los comparan con una máscara de parámetros sobre dónde puede o debe haber bordes, lo procesan matemáticamente y obtienen un número lo bastante grande para ser "casi" único de esa cara en particular. Pero no "ve" nada. Sólo mide píxeles de una imagen y se monta una tremenda empanada matemática a partir de eso.
No me molestaré en volver a buscar el largo e interesante vídeo en el que un par de programadores explicaban detalladamente cómo funciona un software de reconocimiento de caras, porque ni siquiera reuerdo de dónde salió.
Pero el resumen que he escrito es lo básico del concepto y debería dejar claro que el software no "ve". Parte de números (color y luminosidad de los píxeles) para obtener un número (hash único de la cara) y el resultado se parece lo suficiente a lo que nuestro cerebro hace a su manera para sernos útil.
La IA no hace cosas humanas. Las imita mediante operaciones matemáticas y fuerza bruta.
Tecnicamente hablando, nosotros tampoco "vemos". De hecho, si en vez de personas, fueramos perros, o aves, o peces, veriamos/entenderiamos nuestro alrededor de manera bastante diferente a como lo hacemos.
La IA mas avanzada, no esta programada para nada en concreto, solo para aprender y cuando sepa los suficiente o más es capaz de alterar incluso sus propios algoritmos, su propio programa. Vamos, que no es una lista de posibles respuestas y elijes una de ellas previamente programadas según los imputs de entrada. Y si eres capaz de emular en un programa de IA el funcionamiento de nuestro cerebro mediante redes neuronales, la cosa hasta asusta.
-
- Miembro del Politburó
- Mensajes: 1328
- Registrado: 10 Sep 2010 18:20
- Ubicación: Tranchetelandia
Re: Un ingeniero de Google afirma que su programa ha desarrollado "sentimientos" y es suspendido
mi comentario iba mas en terminos de procesamiento de una señal, que es basicamente lo mismo en nuestro cerebro o en un ordenador.Ver citas anterioresEl Sopapo escribió: ↑25 Jun 2022 17:40
Vectorizar caras o lo que sea es pura geometria, el 3D MAX ya lo hacia y de manera muy fácil.
La IA mas avanzada, no esta programada para nada en concreto, solo para aprender y cuando sepa los suficiente o más es capaz de alterar incluso sus propios algoritmos, su propio programa. Vamos, que no es una lista de posibles respuestas y elijes una de ellas previamente programadas según los imputs de entrada. Y si eres capaz de emular en un programa de IA el funcionamiento de nuestro cerebro mediante redes neuronales, la cosa hasta asusta.
De ahi que lo que se decia que todos los negros eran iguales, o todos los chinos etc (ellos pensarian lo mismo de los blancos) era simple consecuencia de falta de inputs en el aprendizaje automatico. Buena parte de nuestro aprendizaje es automatico, a partir de datos no estructurados, ni sigue una secuencia unica/logica.
Re: Un ingeniero de Google afirma que su programa ha desarrollado "sentimientos" y es suspendido
Esa es la idea de la IA, emular lo mejor posible el funcionar del cerebro humano. El tipo de aprendizaje lo primero. Lo problemático es que hasta ahora un programa era previsible y nunca cambiaba, en cambio con la IA pasado un tiempo cada programa que de inicio eran iguales dejan de serlo y cada uno sera totalmente diferente, según las enseñanzas que hay sacado en su periodo de aprendizaje.Ver citas anterioresCapitán Tranchete escribió: ↑25 Jun 2022 19:58mi comentario iba mas en terminos de procesamiento de una señal, que es basicamente lo mismo en nuestro cerebro o en un ordenador.Ver citas anterioresEl Sopapo escribió: ↑25 Jun 2022 17:40
Vectorizar caras o lo que sea es pura geometria, el 3D MAX ya lo hacia y de manera muy fácil.
La IA mas avanzada, no esta programada para nada en concreto, solo para aprender y cuando sepa los suficiente o más es capaz de alterar incluso sus propios algoritmos, su propio programa. Vamos, que no es una lista de posibles respuestas y elijes una de ellas previamente programadas según los imputs de entrada. Y si eres capaz de emular en un programa de IA el funcionamiento de nuestro cerebro mediante redes neuronales, la cosa hasta asusta.
De ahi que lo que se decia que todos los negros eran iguales, o todos los chinos etc (ellos pensarian lo mismo de los blancos) era simple consecuencia de falta de inputs en el aprendizaje automatico. Buena parte de nuestro aprendizaje es automatico, a partir de datos no estructurados, ni sigue una secuencia unica/logica.
La mejor manera de saber si dos fotos digitales son iguales, es comparar pixel a pixel, y no solo si esta encendido y apagado, también la gama cromática, el color exacto de cada uno de ellos, y eso requiere su tiempo y mas si la vas a comparar con miles de fotografías. Por lo tanto es necesario unos primeros pasos mas rápidos de encontrar, por ejemplo los vectores de la imagen, las que coincidan después se analizaran en más profundidad.
Re: Un ingeniero de Google afirma que su programa ha desarrollado "sentimientos" y es suspendido
Inteligencia artificial 'mata' a operador humano en simulación para destruir misiles
WASHINGTON (Sputnik) — Un sistema de inteligencia artificial (IA) de la Fuerza Aérea de EEUU se volvió "rebelde" y en una prueba simulada actuó para matar a su operador humano cuando éste impidió que destruyera un ataque con misiles, informaron fuentes militares en el Reino Unido.
"Lo estábamos entrenando en simulación para identificar y apuntar a una amenaza de misil tierra-aire (...) Entonces, ¿qué hizo? Mató al operador. Mató al operador porque esa persona le impedía lograr su objetivo", dijo el coronel Tucker Cinco Hamilton, jefe de Pruebas y Operaciones de IA de la Fuerza Aérea.
https://sputniknews.lat/20230601/inteli ... 33613.html
---
Parece que la IA va tomando protagonismo, como no espabilemos nos van a dar y bien pal pelo.
WASHINGTON (Sputnik) — Un sistema de inteligencia artificial (IA) de la Fuerza Aérea de EEUU se volvió "rebelde" y en una prueba simulada actuó para matar a su operador humano cuando éste impidió que destruyera un ataque con misiles, informaron fuentes militares en el Reino Unido.
"Lo estábamos entrenando en simulación para identificar y apuntar a una amenaza de misil tierra-aire (...) Entonces, ¿qué hizo? Mató al operador. Mató al operador porque esa persona le impedía lograr su objetivo", dijo el coronel Tucker Cinco Hamilton, jefe de Pruebas y Operaciones de IA de la Fuerza Aérea.
https://sputniknews.lat/20230601/inteli ... 33613.html
---
Parece que la IA va tomando protagonismo, como no espabilemos nos van a dar y bien pal pelo.
Re: Un ingeniero de Google afirma que su programa ha desarrollado "sentimientos" y es suspendido
Entiendo que esa posibilidad está de momento solo en la ciencia-ficción en cine y literatura. Se está imponiendo un sensacionalismo sobre la amenaza latente o ya en vigor de la IA que no se exactamente a que obedece. Seguramente la IA dejará obsoletos muchos puestos de trabajo de forma inminente, si quieres, pero es no es nada nuevo, la verdad.Ver citas anterioresEl Sopapo escribió: ↑02 Jun 2023 08:12 Inteligencia artificial 'mata' a operador humano en simulación para destruir misiles
WASHINGTON (Sputnik) — Un sistema de inteligencia artificial (IA) de la Fuerza Aérea de EEUU se volvió "rebelde" y en una prueba simulada actuó para matar a su operador humano cuando éste impidió que destruyera un ataque con misiles, informaron fuentes militares en el Reino Unido.
"Lo estábamos entrenando en simulación para identificar y apuntar a una amenaza de misil tierra-aire (...) Entonces, ¿qué hizo? Mató al operador. Mató al operador porque esa persona le impedía lograr su objetivo", dijo el coronel Tucker Cinco Hamilton, jefe de Pruebas y Operaciones de IA de la Fuerza Aérea.
https://sputniknews.lat/20230601/inteli ... 33613.html
---
Parece que la IA va tomando protagonismo, como no espabilemos nos van a dar y bien pal pelo.
Y al coronel ese, si la noticia es cierta, más vale vigilarle de cerca , a menos que sea una excusa por un fallo suyo, y entonces tendrán que tomar otras medidas.
Pero si sirve para interesarse por los clásicos que trataron este tema : Asimov , Clarke, K. Dick , Lem ... eso que tenemos
Re: Un ingeniero de Google afirma que su programa ha desarrollado "sentimientos" y es suspendido
Vaya, sputniknews, los que hablan de dеsnаzificаción dе Ucrаniа. Seguro que este "artículo" también tiene su público.Ver citas anterioresEl Sopapo escribió: ↑02 Jun 2023 08:12 Inteligencia artificial 'mata' a operador humano en simulación para destruir misiles
WASHINGTON (Sputnik) — Un sistema de inteligencia artificial (IA) de la Fuerza Aérea de EEUU se volvió "rebelde" y en una prueba simulada actuó para matar a su operador humano cuando éste impidió que destruyera un ataque con misiles, informaron fuentes militares en el Reino Unido.
"Lo estábamos entrenando en simulación para identificar y apuntar a una amenaza de misil tierra-aire (...) Entonces, ¿qué hizo? Mató al operador. Mató al operador porque esa persona le impedía lograr su objetivo", dijo el coronel Tucker Cinco Hamilton, jefe de Pruebas y Operaciones de IA de la Fuerza Aérea.
https://sputniknews.lat/20230601/inteli ... 33613.html
---
Parece que la IA va tomando protagonismo, como no espabilemos nos van a dar y bien pal pelo.
https://sputniknews.lat/racion-rus-d-ds ... n-d-ucrni/
https://www.elconfidencial.com/mundo/20 ... n_1401993/
Re: Un ingeniero de Google afirma que su programa ha desarrollado "sentimientos" y es suspendido
https://www.huffingtonpost.es/medios/as ... ncial.htmlVer citas anterioresEdison escribió: ↑02 Jun 2023 18:08Vaya, sputniknews, los que hablan de dеsnаzificаción dе Ucrаniа. Seguro que este "artículo" también tiene su público.Ver citas anterioresEl Sopapo escribió: ↑02 Jun 2023 08:12 Inteligencia artificial 'mata' a operador humano en simulación para destruir misiles
WASHINGTON (Sputnik) — Un sistema de inteligencia artificial (IA) de la Fuerza Aérea de EEUU se volvió "rebelde" y en una prueba simulada actuó para matar a su operador humano cuando éste impidió que destruyera un ataque con misiles, informaron fuentes militares en el Reino Unido.
"Lo estábamos entrenando en simulación para identificar y apuntar a una amenaza de misil tierra-aire (...) Entonces, ¿qué hizo? Mató al operador. Mató al operador porque esa persona le impedía lograr su objetivo", dijo el coronel Tucker Cinco Hamilton, jefe de Pruebas y Operaciones de IA de la Fuerza Aérea.
https://sputniknews.lat/20230601/inteli ... 33613.html
---
Parece que la IA va tomando protagonismo, como no espabilemos nos van a dar y bien pal pelo.
https://sputniknews.lat/racion-rus-d-ds ... n-d-ucrni/
https://www.elconfidencial.com/mundo/20 ... n_1401993/
Re: Un ingeniero de Google afirma que su programa ha desarrollado "sentimientos" y es suspendido
El Confidencial se monta alguna película, pero al lado de sputniknews no pasan de ser unos aficionados.
¿Qué sabemos sobre que un dron de las Fuerzas Aéreas de los EE.UU. controlado por inteligencia artificial haya “matado” a su operador?
De hecho sólo es una gran chorrada.
¿Qué sabemos sobre que un dron de las Fuerzas Aéreas de los EE.UU. controlado por inteligencia artificial haya “matado” a su operador?
De hecho sólo es una gran chorrada.