“…Lo primero, los posibles riesgos mencionados deberían estar entre las prioridades de quienes desarrollan estas tecnologías, incluso entre las de aquellos investigadores menos preocupados porque creen que una super-IA nunca se implementará, o entre las de quienes no lo niegan, pero creen que aún es muy pronto para alarmarse, o, también, entre la de quienes sólo se preocupan por el avance técnico, menospreciando las posibles medidas de contingencia. En segundo lugar, como se dijo más arriba, la preocupación debe trasladarse a la agenda política y al debate público, legislando como por ejemplo ya hizo la Unión Europa o Estados Unidos (Langman et al, 2021). Las leyes al respecto deberían controlar la I+D+i pero, también, las injusticias político-sociales derivadas del mal uso y del monopolio de la IA por parte de las naciones.…”