Ahora leyendo:
Consecuencias de la inteligencia artificial
Artículo completo: 4minutos para leer

Consecuencias de la inteligencia artificial

Hay muchas definiciones para la inteligencia artificial (IA). Una podría ser: un conjunto de programas y bases de datos que se ejecutan en una computadora para resolver problemas. Podemos agregar cosas como el aprendizaje automático y estaríamos cerca de la definición de IA de IBM. Hay otras definiciones que mencionan la simulación de la inteligencia humana por sistemas informáticos. Finalmente, AI es un término amplio para definir la automatización y el aprendizaje por parte de las máquinas.

En la actualidad, todos los que se consideran científicos parecen preocupados por el futuro de la IA y cómo establecer reglas y regulaciones. En octubre de 2022, la Casa Blanca de los Estados Unidos publicó un plan para una Carta de derechos de IA, un mapa a seguir para el uso responsable de IA. Son 5 puntos clave que todos los algoritmos de IA deben respetar:
1 – Tienen que ser seguros y eficientes
2 – No pueden ser discriminatorios
3 – Deben proteger la privacidad de los datos
4 – Están obligado a informar al usuario del uso de la automatización
5 – El usuario tiene derecho a optar por no participar

Desde un punto de vista político, es lógico ya que la mayoría de las personas exigen que su gobierno proteja esos derechos, pero ¿estamos prestando atención al panorama completo? ¿Dónde están la ética y la moralidad en este proyecto? ¿No deberían constituir una parte importante del futuro de la IA?

Isaac Asimov un gran escritor y bioquímico escribió en 1950 “I Robot”, un libro de ficción en el que define las 3 leyes de la robótica:
“Primera ley: un robot no puede dañar a un ser humano o, por inacción, permitir que un ser humano sufra daño. Segunda Ley: Un robot debe obedecer las órdenes que le dan los seres humanos, excepto cuando dichas órdenes entren en conflicto con la Primera Ley. Tercera Ley: Un robot debe proteger su propia existencia siempre que dicha protección no entre en conflicto con la Primera o la Segunda Ley”. Comprendió en ese entonces que a medida que los robots se volvían más avanzados, era necesario crear reglas morales y éticas.

¿Nuestros supuestos expertos no son conscientes de la necesidad de un conjunto de reglas éticas-morales? El verdadero problema es que si se aplicaran estas reglas, lo más probable es que se interfirieran con algunos algunos usos específicos. Hay innumerables ejemplos de reglas morales que la IA actual rompe. El misil de crucero que aterriza justo en el objetivo y mata a civiles violaría incluso las reglas básicas de Asimov. El argumento es que la IA es tan moral como las personas que la programan. Incluso podría seguir el consejo de Nietzsche. “La vida no ha sido ideada por la moral: quiere el engaño, vive del engaño.”

Ha llegado el momento de que los profesionales serios e idóneos comiencen a prestar atención a lo que podría llamarse la ética de la IA relacionada con moralidad. Esto es mucho más fácil decirlo que hacerlo, después de todo, ni siquiera estamos de acuerdo en un conjunto dado de reglas y regulaciones morales para la humanidad. Necesitamos establecer límites a las acciones que permitiríamos a la IA y sus programadores. Parece una tarea formidable, pero somos muy buenos en ser persistentes. Puede que no lo hagamos bien al principio, pero seguro que no nos daremos por vencidos y seguiremos mejorándolo. Por otro lado, tal vez podríamos instalar en cada IA un módulo de «Obedece, alaba, y respeta a tu creador». Esperemos que podamos tener un futuro muy favorable donde la IA realmente ayude a formar una sociedad mejor.

VOLVER A LA PAGINA DE LA PROMO

20 comments

Deja un comentario

Your email address will not be published. Required fields are marked *

Input your search keywords and press Enter.