hace unos años una IA de IBM que usaban para tratar los tratamientos oncológicos acabó por concluír que N sujetos no tenían que recibir quimioterapia. La gente se echó las manos a la cabeza y retiraron la IA. No sé si los enfermos en cuestión murieron o no pero me parece lógico que una IA considere lógico usar recursos de la forma más eficiente y eso, sin ética ni moral, puede implicar dejar morir a alguien que considera que no tiene cura posible
#3 vamos, que la IA es inteligente. Nadie queremos morir y algunos quieren alargar la vida más de lo humanamente deseable. La IA no tiene en cuenta ese dislate?