Hay muchas definiciones para la inteligencia artificial (IA). Una podría ser: un conjunto de programas y bases de datos que se ejecutan en una computadora para resolver problemas. Podemos agregar cosas como el aprendizaje automático y estaríamos cerca de la definición de IA de IBM. Hay otras definiciones que mencionan la simulación de la inteligencia humana por sistemas informáticos. Finalmente, AI es un término amplio para definir la automatización y el aprendizaje por parte de las máquinas.
En la actualidad, todos los que se consideran científicos parecen preocupados por el futuro de la IA y cómo establecer reglas y regulaciones. En octubre de 2022, la Casa Blanca de los Estados Unidos publicó un plan para una Carta de derechos de IA, un mapa a seguir para el uso responsable de IA. Son 5 puntos clave que todos los algoritmos de IA deben respetar:
1 – Tienen que ser seguros y eficientes
2 – No pueden ser discriminatorios
3 – Deben proteger la privacidad de los datos
4 – Están obligado a informar al usuario del uso de la automatización
5 – El usuario tiene derecho a optar por no participar
Desde un punto de vista político, es lógico ya que la mayoría de las personas exigen que su gobierno proteja esos derechos, pero ¿estamos prestando atención al panorama completo? ¿Dónde están la ética y la moralidad en este proyecto? ¿No deberían constituir una parte importante del futuro de la IA?
Isaac Asimov un gran escritor y bioquímico escribió en 1950 “I Robot”, un libro de ficción en el que define las 3 leyes de la robótica:
“Primera ley: un robot no puede dañar a un ser humano o, por inacción, permitir que un ser humano sufra daño. Segunda Ley: Un robot debe obedecer las órdenes que le dan los seres humanos, excepto cuando dichas órdenes entren en conflicto con la Primera Ley. Tercera Ley: Un robot debe proteger su propia existencia siempre que dicha protección no entre en conflicto con la Primera o la Segunda Ley”. Comprendió en ese entonces que a medida que los robots se volvían más avanzados, era necesario crear reglas morales y éticas.
¿Nuestros supuestos expertos no son conscientes de la necesidad de un conjunto de reglas éticas-morales? El verdadero problema es que si se aplicaran estas reglas, lo más probable es que se interfirieran con algunos algunos usos específicos. Hay innumerables ejemplos de reglas morales que la IA actual rompe. El misil de crucero que aterriza justo en el objetivo y mata a civiles violaría incluso las reglas básicas de Asimov. El argumento es que la IA es tan moral como las personas que la programan. Incluso podría seguir el consejo de Nietzsche. “La vida no ha sido ideada por la moral: quiere el engaño, vive del engaño.”
Ha llegado el momento de que los profesionales serios e idóneos comiencen a prestar atención a lo que podría llamarse la ética de la IA relacionada con moralidad. Esto es mucho más fácil decirlo que hacerlo, después de todo, ni siquiera estamos de acuerdo en un conjunto dado de reglas y regulaciones morales para la humanidad. Necesitamos establecer límites a las acciones que permitiríamos a la IA y sus programadores. Parece una tarea formidable, pero somos muy buenos en ser persistentes. Puede que no lo hagamos bien al principio, pero seguro que no nos daremos por vencidos y seguiremos mejorándolo. Por otro lado, tal vez podríamos instalar en cada IA un módulo de «Obedece, alaba, y respeta a tu creador». Esperemos que podamos tener un futuro muy favorable donde la IA realmente ayude a formar una sociedad mejor.
Esto lo pudo haber escrito el ingeniero o el abogado
Me parece que este lo puede haber escrito un ingeniero
Este me parece que lo escribió un abogado
Ingeniero
Un abogado, sin dudas
Esta nota fue escrita por un ingeniero
Fue escrito por un abogado
La escribió un ingeniero
Esta nota la escribió un abogado
Inteligencia artificial la escribió
Abogado
Está la hizo el ingeniero
Abogado
Creo que lo escribio un abogado
Lo escribio un ingeniero
Lo habrá escrito un ingeniero .
Lo escrbio la inteligencia artificial
Creo que está escrita por un abogado
Abogado
La IA