Home » 2024 » febrero » 12

Daily Archives: 12 febrero, 2024

febrero 2024
M T W T F S S
 1234
567891011
12131415161718
19202122232425
26272829  

Las nuevas leyes de la robótica

Las nuevas leyes de la robótica.
Defender la experiencia humana en la era de la IA

Frank Pasquale
Galaxia Gutenberg
www.galaxiagutenberg.com

Frases entresacadas e ideas interesantes que puedo utilizar:

Leyes de la robótica de Asimov:
1. Un robot no hará daño a un ser humano ni, por inacción, permitirá que un ser humano sufra daño.
2. Un robot debe cumplir las órdenes dadas por los seres humanos, a excepción de aquellas que entren en conflicto con la primera ley.
3. Un robot debe proteger su propia existencia en la medida en que esta protección no entre en conflicto con la primera o con la segunda ley.

Nuevas leyes de la robótica:
1. Los sistemas robóticos y de IA deberán servir de complemento a los profesionales, no reemplazarlos.
2. Los sistemas robóticos o la IA no tienen que falsificar lo humano.
3. Los sistemas robóticos y la IA no deben fomentar la carrera armamentística de suma cero.
4. Los sistemas robóticos y la IA tienen que indicar siempre la identidad de su(s) creador(es), controlador(es) y propietario(s).

Capítulo completo Más allá del aprendizaje de las máquinas (99-134)

(Página 102)
“Para dejar claras las cosas: tenemos que decidir si vamos a invertir en una IA educativa que no deje en ningún momento de medir y evaluar a los estudiantes o vamos a centrar nuestras energías en productos que favorezcan el avance del aprendizaje mediante el apoyo y al creatividad.”

“La educación tiene múltiples propósitos y objetivos, muchos de los cuales no pueden o no deberían poder ser reducidos a una cuantificación numérica. Si permitimos que la IA nos obligue a apartar nuestra atención del aprendizaje actual y a centrarnos en aquello que pueda ser medido y optimizado por ordenadores, habremos perdido una enorme oportunidad. Peor aún, habremos permitido que la tecnología usurpe y, en última instancia, dicte nuestros valores en lugar de servir como herramienta para asumirlos.”

(Página 140)
“Las principales empresas tienen que responsabilizarse de lo que priorizan o publican. No pueden seguir culpando al “algoritmo” por la difusión de información lesiva y la incitación. Podemos exigir valores humanos a la inteligencia artificial o bien sufrir las consecuencias de que cultive entre nosotros la inhumanidad. No hay término medio.”

(Página 173)
“La discriminación es un peligro presente y obvio. El software puede excluir minorías que no están representadas en las bases de datos de la IA.
/…/
Si las mujeres no formaron parte de los equipos directivos en el pasado, no pueden formar parte de las bases de datos que predicen las estrellas del futuro.”

(Página 317)
“Generan palabras según bases de datos de palabras; imágenes, según bases de datos de imágenes; pero se quedan aislados como náufragos en un océano silencioso de correlaciones, despojados de la experiencia sensorial que subyace a nuestro entendimiento intuitivo de realidades y relaciones.”