La ética Robot

La ética Robot

La ética Robot – Hasta hoy, sólo el Hombre se comprometió a un razonamiento ético, pero ya es hora de incorporarle una dimensión ética a algunas máquinas complejas.

La ética RobotSe trata de un nuevo campo de estudio que considera a las máquinas, computadoras y robots, como un tipo de agentes éticos e intenta implementar en ellos facultades morales de toma de decisiones. Dado que las investigaciones científicas y los objetos tecnológicos tienen el poder de afectar a toda la humanidad, las decisiones sobre su curso actual y futuro no deben involucrar únicamente a los científicos, los empresarios y los gobernantes. Es necesario que la mayoría de la gente tenga una participación mucho más activa a fin de fijar los límites adecuados. 

La ética es la ciencia que estudia el comportamiento moral del hombre y su accionar. Se relaciona con los propios actos que cada uno realiza, las cuales –a su vez– dependen de los propios valores. No es su función prohibir o aceptar indiscriminadamente, sino permitir el discernimiento –dentro de un determinado contexto– entre lo “correcto” y lo “equivocado”, lo “bueno” y lo “malo”.

Pero quien juzga es siempre, en última instancia, la propia persona. Dentro de una comunidad o una sociedad, la ética consiste en aquellas conductas que tienden a ser preferidas a lo largo de períodos suficientemente largos de tiempo, como para convertirse en una especie de codificación. Por ese motivo, y para cualquier actividad humana, la ética es tan igualmente esencial como la creatividad, el conocimiento profesional o las habilidades [Mulej et al, 2002].

Con respecto a la relación entre la tecnología y la ética, se pueden considerar tres aspectos:

• el uso responsable e irresponsable que algunas personas hacen de los objetos tecnológicos;

• cómo los seres humanos deben de tratar a los objetos tecnológicos complejos; y

• los problemas relacionados con los objetos tecnológicos complejos y su interacción con el ecosistema.

Relaciones tirantes

En cuanto al primer punto, y en general, lo que preocupa no es tanto la tecnología en sí misma, sino la utilización que se puede hacer de ella [Ricard y Xuan Thuan, 2001, p. 27]. Lo que provoca miedo es la velocidad e imprevisibilidad de su avance y, en especial, la posibilidad de que se vuelva incontrolable [Capanna, 2000].

Los objetos tecnológicos son neutros: multiplican las posibilidades humanas tanto para hacer el bien como para hacer el mal. Pero definitivamente no son neutros los impactos que tienen dichos objetos sobre la vida de los individuos y las sociedades.

Es el caso de la energía atómica: ofrece tanto la posibilidad de construir centrales eléctricas (que otorgan luz y calor a grandes ciudades) como la posibilidad de construir bombas (que destruyen esas mismas grandes ciudades). Y es también el caso del robot inteligente y autónomo: si su objetivo principal fuese el de satisfacer al Hombre, sería de valiosa ayuda; pero si su objetivo principal fuese el de satisfacer su propia supervivencia, sería extremadamente peligroso [Fritz, 2007].

Por eso, todo avance es percibido de forma ambivalente: como sublime y, a la vez, nefasto; como maravilloso y, al mismo tiempo, monstruoso. Esto no hace más que revelar las contradicciones intrínsecas de una sociedad escindida entre los tecnófilos y los tecnófobos, entre los que se ufanan por los beneficios que puede brindar el poder tecnológico y los que temen al daño irreparable que puede acarrear su utilización descontrolada.

De todas formas, ya no es posible revertir el inevitable proceso de aceleración tecnológica acaecido en las últimas décadas. Sólo queda como única posibilidad la de tomar adecuadas decisiones a fin de suavizar los peligros que pudiese originar, pero sin renunciar a la multiplicidad de sus ventajas. En otras palabras, no se discute si se utiliza o no la tecnología, sino solamente la forma en que se la va a emplear.

Es responsabilidad del homo sapiens ser mucho más crítico con respecto a lo que hace y por qué lo hace; sólo así podrá –en parte– prever algunas de las consecuencias indeseadas. Cuanto más amplio es su poder, mayor debe ser su sentido de la responsabilidad.

Dado que las investigaciones científicas y los objetos tecnológicos tienen el poder de afectar a toda la humanidad, las decisiones sobre su curso actual y futuro no deben involucrar únicamente a los científicos, los empresarios y los gobernantes. Es necesario que la mayoría de la gente tenga una participación mucho más activa a fin de fijar los límites adecuados. Y, en ese punto, el periodismo de divulgación tiene una responsabilidad fundamental [Dalai Lama, 2006, p. 221, 231/2 y 242].

¿Cómo tratarlas?

Las actuales máquinas inteligentes son simples en extremo; en parte porque son muy “jóvenes”: apenas tienen poco más de medio siglo de existencia. No obstante, su avance arrollador las hará inmensamente más complejas en poco tiempo más. Aunque es posible que retengan el nombre “máquina”, con seguridad serán otra cosa.

Si una máquina puede desarrollar tanto actividades cognitivas como afectivas (emociones), habría que empezar a pensar seriamente sobre qué posición ocupa la máquina. ¿Tendrá el propietario derecho a desenchufarla, o a destruir su programación inteligente? ¿Constituiría esto un asesinato? [Ritchie, 1985, pág. 145] ¿Aunque, una vez “asesinada”, se pudiese reconstruir tan bien como si fuera nueva? ¿Sería este caso un “intento de asesinato”? [Freitas Jr., 1985].

De acuerdo con las leyes vigentes, los robots son simplemente una propiedad inanimada sin derechos ni deberes. No son personas legales (al igual que las máquinas y las computadoras) y no los toma en cuenta el sistema judicial. Sin embargo, se debe recordar que, en algún momento de la historia del Hombre, tampoco fueron considerados como personas legales los negros, los niños, las mujeres, los extranjeros y las empresas [Freitas Jr., 1985].

Si la máquina fuese un robot antropomorfo, si fuese capaz de pensar, de sostener debates interesantes o de hacer nuevos descubrimientos científicos (en suma, si desarrollase habilidades cognitivas), tal vez no habría dudas de que “apagarlo permanentemente” constituiría una especie de asesinato.

Pero, si en vez de ser intelectualmente brillante, ¿qué sucedería si mostrase una gama de emociones equivalentes a las que componen al ser humano promedio? Incluso más, si tuviese la forma de un perro, con un nivel mental equivalente a ese animal y su limitada gama de emociones, ¿sería cruel pegarle, o sería nada más que golpear a piezas metálicas o de plástico? [Storrs Hall, 2000].

¿Chatarra o asesinato?

Por otra parte, el cambiar un robot –ya obsoleto y/o pasado de moda– por un modelo más nuevo y tirarlo como “chatarra”, como se hace con un automóvil o cualquier electrodoméstico, ¿no sería también una especie de asesinato?

Antes de construir humanoides inteligentes, se deberían resolver algunos problemas. De hecho, al momento de diseñarlos se debería tener definido si no es una crueldad producir en masa androides sintientes y luego eliminarlos en “campos de exterminio”.

Actualmente, cualquier robot se considera un bien instrumental; en consecuencia, su propietario puede hacer el uso que quiera… incluso hasta destruirlo. Es probable que, con el tiempo, surja un movimiento tendiente a atenuar los derechos derivados de la propiedad de los androides [Monopoli, 2005].

Incluso puede ser que, algún día, éstos argumenten que son seres conscientes y demanden la igualdad de derechos. Es por eso que, por uno u otro camino, hay quienes afirman que el homo sapiens compartirá el planeta con formas de vida sintética que hasta podrían tener “derechos legales”.

¿Qué tipos de derechos se les debería otorgar y/o negar? ¿Se les pueden aplicar los “derechos humanos”? Si un robot emula perfectamente las características humanas, ¿podría reclamar ser miembro de la especie? No se podría exigirle que tenga un cuerpo físico como el humano, ya que –con ese criterio– se deberían rechazar también a las personas que cuentan con partes artificiales [Lucas, 2006]. ¿Cuál será el lugar que los robots ocupen dentro de la sociedad? ¿Formarán su propia sociedad?

Por otra parte, ¿deberían los robots llevar armas? Si se envía un robot para asesinar a un ser humano, ¿de quién es la culpa: de la máquina, de las personas que la diseñaron, de la empresa que la diseñó, de las personas que la construyeron o de la empresa que la construyó? Asimismo, ¿deberían concedérseles patentes a las máquinas? Si un robot (una computadora o una máquina) inventa una patente, ¿pertenece a su dueño o a él mismo?

Nuevo campo

Con respecto a la ética para las máquinas, se pueden distinguir dos niveles: la “humana” y la “artificial” propiamente dicha [Palmerini, 2004]. La función de la primera es la de restringir quién debe construir y quién debe usar robots. Pero su desarrollo no va parejo con el de la ciencia y la tecnología; en otras palabras, no está en condiciones de seguir el vertiginoso ritmo de las proezas científicas y tecnológicas del ser humano.

En lo referente a los nuevos desarrollos tecnológicos, mucho de lo que –en poco tiempo- será factible, está más relacionado con los cálculos financieros empresariales y con las previsiones políticas y económicas gubernamentales, que con los nuevos descubrimientos o paradigmas científicos [Dalai Lama, 2006, p. 221].

La ética artificial de los robots, o “roboética”, es aquella parte de la ética que se ocupa de los problemas relacionados con los robots y con su interacción con el hombre, los animales, la sociedad, la naturaleza y el mundo [Monopoli, 2005].

Se trata de un nuevo campo de estudio que considera a las máquinas, computadoras y robots como un tipo de agentes éticos e intenta implementar en ellos facultades morales de toma de decisiones [Allen, Wallach y Smit, 2006] [Moor, 2006].

La idea es otorgarles un determinado conjunto de reglas o guías de comportamiento universal, un “código de ética”, a medida que se vayan haciendo cada vez más complejas, a fin de que sus acciones no se aparten mucho de la normas humanas (ya que se tornaría imposible controlarlos) [Proença, 2001].

Hasta hoy, sólo el Hombre se comprometió a un razonamiento ético; ya es hora de incorporarle una dimensión ética a algunas máquinas complejas [Anderson y Leigh Anderson, 2006].

Otros agentes éticos

Es enfoque se sustenta en el hecho de que existen casos de otras clases de agentes éticos. Por ejemplo, los perros tienen un sentido de lo que es correcto y lo que es incorrecto. Incluso, los niños son una forma distinta de agente ético: tienen limitados derechos y responsabilidades, y los adultos tienen deberes para con ellos.

Es más, hay una variación continua de agente ético que va desde el bebé hasta el adolescente [Storrs Hall, 2000]. Sin embargo, la mayoría de las personas establece una frontera divisoria para la ética entre lo que considera consciente y lo que considera no-consciente.

Por ejemplo, si se piensa que una serpiente no es consciente, no se harán muchos cuestionamientos en caso de tener que matarla. De igual manera, si se piensa que una máquina no es consciente, se tendrá mucho menos escrúpulo en lastimarla.

Recientemente un equipo internacional de científicos y académicos –pertenecientes a EURON (EUropean RObotics research Network)– elaboró un prototipo de “código de ética”. A grandes rasgos, sus recomendaciones son las siguientes:

  • Asegurarse el control de los humanos sobre los robots.
  • Prevenir su utilización nociva o ilegal.
  • Proteger los datos obtenidos por los robots.
  • Rastrear y grabar la actividad de los robots.
  • Brindar una identificación única a cada robot.

Bibliografía

  • 1. Allen, Colin; Wallach, Wendell y Smit, Iva (2006): Why Machine Ethics? IEEE Intelligent Systems, julio/agosto, Vol. 21, N° 4, p. 12-17.
  • 2. Anderson, Michael y Leigh Anderson, Susan (2006): Machine Ethics. IEEE Intelligent Systems, julio/agosto 2006, Vol. 21, N° 4, p. 10-11.
  • 3. Capanna, Pablo (2000): ¿Se puede orientar la tecnología? Página 12, Suplemento Futuro, 4 de marzo.
  • 4. Dalai Lama (2006): El universo en un solo átomo. Buenos Aires, Editorial Grijalbo.
  • 5. EURON
  • 6. Freitas, Robert (Jr.) (1985): The Legal Rights of Robots. Student Lawyer, Nº 13, enero, p. 54-56.
  • 7.Fritz, Walter (2007): Sistemas Inteligentes y sus Sociedades. Enero (última actualización).
  • 8. Lucas, Chris (2006): Alien Consciousness – Philosophical Problems Version 4.83, mayo.
  • 9. Monopoli, Antonio (2005): Roboetica. Sitio italiano.
  • 10. Moor, James (2006): The Nature, Importance, and Difficulty of Machine Ethics. IEEE Intelligent Systems, julio/agosto, Vol. 21, N° 4, p. 18-21.
  • 11. Mulej, Matjaž; Kajzer, Stefan; Ženko, Zdenka y Potocan, Vojko (2002): Ethics of interdependence and systems thinking. Proceedings on IDIMT-2002, p. 97/117.
  • 12. Palmerini, Chiara (2004): Diamo una morale ai robot. Il manifesto, 18 de febrero.
  • 13. Proença, Ana (2001): Conversando sobre Inteligência Artificial. Lisboa, Revista Intelectu, Nº 5, febrero.
  • 14. Ricard, Matthieu y Xuan Thuan, Trinh (2001): El infinito en la palma de la mano. Barcelona, Editorial Urano.
  • 15. Ritchie, David (1985): El Cerebro Binario. Barcelona, Editorial Sudamericana-Planeta.
  • 16. Storrs Hall, John (2000): Ethics for Machines.

Sergio A. Moriello es Ingeniero en Electrónica, Postgraduado en Periodismo Científico y en Administración Empresarial y Magister en Ingeniería en Sistemas de Información. Lidera GDAIA (Grupo de Desarrollo de Agentes Inteligentes Autónomos, UTN-FRBA) y es miembro activo de ALAS (Asociación Latinoamericana de Sistemas) y de GESI (Grupo de Estudio de Sistemas Integrados). Es autor de los libros Inteligencias Sintéticas e Inteligencia Natural y Sintética.

Por Sergio Moriello.

Código ético para robots, en Corea del Sur

Código ético para robots, en Corea del Sur

Corea del Sur adoptará este año el primer código ético para robots del mundo, inspirado en una novela de ciencia ficción de Isaac Asimov, con el fin de evitar posibles abusos de los humanos.

Código ético

El Ministerio surcoreano de Comercio, Industria y Energía espera adoptar antes de final de año la ‘carta y código ético de los robots’, sobre la que trabaja un comité de expertos desde el pasado mes de noviembre, según fuentes ministeriales.

Además, el Gobierno desea incluir esta declaración de principios en los textos de los escolares del país.

El jefe del departamento de robots del Ministerio, Shim Hak-bong, explicó que la carta ética se elabora con vistas a la llegada de los robots pensantes en un futuro próximo, por lo que considera necesario establecer una línea de conducta ética.

Corea del Sur, uno de los países de Asia más avanzados tecnológicamente, quiere convertirse en un referente mundial en robótica y con este código de conducta pretende sentar las bases del papel y la función que tendrán los robots en el futuro, así como incentivar su demanda.

Código inspirado en una novela de ciencia ficción

La propuesta surcoreana, que parece más cercana a una película de ciencia ficción que a la vida diaria, se inspira de hecho en los principios establecidos en una novela futurista escrita por el estadounidense Isaac Asimov en 1950.

La obra titulada ‘Yo Robot’, llevada al cine en 2004, recoge una serie de reglas que debe cumplir cualquier robot, como defender al hombre, obedecer sus órdenes y procurar su propia auto defensa, para poder distinguir entre la responsabilidad de un robot, de su fabricante y del usuario.

Además del texto de Asimov, los expertos tienen en cuenta las experiencias en robótica de otros países y recogen opiniones de Internet.

Corea quiere competir con Japón y EEUU

En el plano internacional, el Instituto de Ingenieros Eléctricos y Electrónicos (IEEE) formó en 2004 un comité tecnológico para preparar una ética de robots, mientras que la Red de Investigación Europea sobre Robótica (EURON) tiene previsto difundir en abril una hoja de ruta sobre esta materia, según el Ministerio sur-coreano.

Corea del Sur quiere aprovechar sus avanzadas infraestructuras informáticas y de telecomunicaciones para ser una potencia mundial en robots inteligentes a partir de 2010 y competir con Japón y EEUU, países que están a la cabeza en esta industria, para adelantarse al desarrollo tecnológico chino.

De hecho, Corea del Sur acogió en 2006 su primera feria internacional sobre robótica para mostrar su capacidad en ese campo.

Asimismo, en los próximos diez años este país tiene previsto invertir 248.000 millones de wones (unos 262 millones de dólares) en esta industria y espera crear robots que convivan con el hombre.

Los expertos consideran que los robots serán muy útiles en una sociedad con una población cada vez más envejecida, como es el caso de Corea del Sur, ya que solucionarán problemas de mano de obra y contribuirán al bienestar social.

Un robot por hogar

El Ministerio surcoreano apuesta porque haya al menos un robot en cada hogar del país antes de 2020, cuyo coste rondará los 1.000 dólares.

Por su parte, el Ministerio de Información y Telecomunicaciones surcoreano puso en marcha un proyecto para crear robots acompañantes, conocidos como Ubiquitous Robotic Companion (URC).

Los primeros prototipos vieron la luz en 2005, tres enfocados a las labores domésticas y otros dos destinados al servicio público.

Según la Asociación Coreana de Robots Inteligentes, fundada en 2003, el volumen de este mercado de robots alcanzará los 4.900 millones de dólares este año y los 23.200 millones de dólares en 2010.

Por su parte, las autoridades de la provincia surcoreana de Gyeonggi y de la ciudad de Bucheon invertirán conjuntamente 11.900 millones de wones (unos 12,5 millones de dólares) en un parque tecnológico que se localizará en Bucheon para potenciar la industria robótica.

Transhumanismo 🤖Cyborgs 🤖 Inmortales

Los avances tecnológicos provocaron un salto evolutivo de la especie humana

Dicen que la gente vivirá vidas mucho más largas. ¿Qué quiere decir ‘mucho más largas’? Es un asunto de ingeniería médica: pueden ser cientos de años. Tal vez para siempre. ¿ transhumanismo ?

Transhumanismo

transhumanismo
transhumanismo

Desde hace varias décadas, en el mundo desarrollado ha ido creciendo un extraño movimiento de liberación. Sus seguidores apuntan mucho más alto que los activistas de los derechos civiles, de las mujeres o de los homosexuales. Lo que quieren es nada más y nada menos que liberar a la raza humana de sus limitaciones biológicas».

Francis Fukuyama, economista y miembro del consejo de Bioética de Estados Unidos, explica así la eclosión de una nueva corriente filosófica llamada transhumanismo, cuyos impulsores creen firmemente que el avance exponencial de la tecnología permitirá liberar al ser humano de su destino biológico. Y dar un salto evolutivo que nos cambiará como especie.

¿Ciencia ficción barata? Ni siquiera Fukuyama, abiertamente crítico con sus postulados, se atreve a descartarlos de un plumazo. No es tan descabellado pensar que un mis podremos usar la biotecnología para ser más fuertes, más listos y más longevos. De hecho, ya lo estamos haciendo en la actualidad.

Los transhumanistas aseguran que el 12% de la actual población de Estados Unidos podría describirse como ciborgs (híbridos biológicos y mecánicos). Entre ellos estarían las personas que utilizan marcapasos electrónicos, prótesis artificiales, lentes de córnea implantadas y piel artificial.

De hecho, la situación está tan madura como para que el Grupo Europeo de ética de las Ciencias y las Nuevas Tecnologías (GEE) se pregunte por los límites jurídicos y éticos que se abren ante nosotros.

«Uno puede preguntarse con qué objeto alguien puede querer introducir algún instrumento electrónico en el cuerpo.

La respuesta más obvia es la médica», escribe Pere Puig Doménech, miembro del GEE, en un artículo reciente. En España, explica, se ha aprobado un sistema de estimulación basado en un electrodo que se introduce en el cerebro y que puede servir para limitar los efectos de enfermedades como el Parkinson.

¿Donde situar la frontera? El comunicado del GEE advierte: «No todo lo que es técnicamente posible es admisible únicamente, es aceptable socialmente y está aprobado legalmente».

Para el físico Giulio Prisco, vicepresidente de la Asociación Mundial Transhumanista, los límites son muy difusos y defiende los postulados del movimiento, «que no son más que el reconocimiento del hecho de que se puede utilizar la tecnología para mejorar radicalmente a los seres humanos (como individuos, como sociedades y como especie), así como pensar que hacerlo es bueno.

Los argumentos en contra se refieren a menudo a ideas tan nebulosas como la dignidad humana y es fácil reconocerlos como viejos argumentos religiosos. Como por ejemplo, ´si Dios hubiese querido que los hombres volasen les hubiese dado alas´».

Parece razonable, pero,¿qué significa exactamente para ellos el término mejorará:»Una mejora muy importante  explica Prisco será permitir que la gente viva vidas mucho más largas y con mucha más salud. ¿Qué quiere decir ´mucho más largas´? Es un asunto de ingeniería médica: pueden ser cientos de años.

Tal vez miles de años. Quizás, y esta es la posibilidad asombrosa que estamos empezando a ver, un tiempo indefinido; si no nos ocurren accidentes, para siempre».

Aunque, puestos a imaginar, Prisco adelanta una forma de conjurar hasta el peligro de accidente. Se trata de una tecnología por inventar denominada mind uploading, que consistiría en hacer una copia de seguridad de la información contenida en la mente, para poder volverla a cargar en un nuevo cerebro biológico o robótico. «Y aunque esta idea pueda plantear algún problema filosófico relacionado con los conceptos de yo e identidad,su aplicación práctica está ya siendo estudiada».

Además, dicen, si yo sigo existiendo, ¿qué importancia puede tener que haya cinco o seis copias más por ahí?

El primer autor que utiliza el término transhumanismo fue sir Julian Huxley, hermano del autor de Un mundo feliz.Fue en su obra Nuevas botellas para vino nuevo un individuo aquí de una manera, otro individuo allí de otra manera, sino también en su integridad, como humanidad.

Necesitamos un nombre para esa nueva creencia. Quizás transhumanismo pueda servir: el hombre sigue siendo hombre, pero trascendióndose a sí mismo, realizando nuevas posibilidades de y para su naturaleza humana».

Y todo esto, ¿para cuándo? El pensador Ray Kurzweil, en su ensayo El viaje fantástico: vivir bastante para vivir eternamente,asegura que la convergencia de la nanotecnología y la biotecnología, y las ciencias de la información y las cognitivas, harán todo esto posible en unas cuantas décadas. Quizás menos de cinco.

«Eso quiere decir que tus hijos podrían vivir eternamente. Sí, has entendido bien: eternamente».

¿Y qué pasa conmigo, con nosotros, los que ya somos adultos en este momento?

Los transhumanistas aconsejan recurrir a la criogenización. Mantener tu cuerpo en nitrógeno líquido hasta que ese futuro sea posible. De hecho, los planes de varios transhumanistas de hacerse congelar con la esperanza de que les revivan en el futuro la utiliza Fukuyama como prueba del lugar que ocupa este movimiento «en la periferia intelectual».

Además, los pasados fracasos de la futurología a la hora de desvelar nuestro futuro permiten dudar de sus predicciones de bastante incertidumbre.

Definida como la religión de la lógica especulativa, el transhumanismo tiene la ambición confesada de convertirse en la filosofía central del tercer milenio. Qué duda cabe de que resulta atractivo eso de ser como dioses.

Desde luego mejor que los futuros catastróficos que tanto predicamento tienen en estos tiempos. Pero el mundo está lleno de escépticos y Borja García de los Ríos, director de Laylah,una revista de cultura oscura,es uno de ellos:

La ciencia ficción no acierta

«Dentro de 100 años, el transhumanismo o bien habrá tenido un éxito rotundo o habrá fracasado miserablemente. Personalmente apuesto por lo segundo. Si enfocamos el tema desde un punto de vista estrictamente racional (como se supone que hacen ellos) vemos que la ciencia siempre ha sido más lenta de lo esperado a la hora de producir los productos que la sociedad espera (¿qué pasá con la robótica y con la carrera espacial?), y cuando lo hace siempre es de una manera que no se esperaba. No hay más que leer un libro de ciencia ficción de los años 50 (Asimov, Heinlein…) para ver a lo que me refiero.

A pesar de estar basados en la ciencia, su idea del mundo de finales de milenio no podría estar más equivocada ni aposta. Ningún escritor de ciencia-ficción predijo la importancia que en el futuro tendrían los ordenadores, por poner un ejemplo al alcance de todos. Y al fin y al cabo, el transhumanismo no es más que la ciencia ficción de cambio de milenio.

Es un contrapunto interesante al catastrofismo prevalente en casi cualquier teoría sobre el futuro, pero eso no lo hace más real, de la misma manera que tampoco su irrealidad acabará con su ideología en ningún momento; basta con creer que si no es dentro de 50 años será dentro de 70. Todo es una cuestión de fe».

Además, dicen sus críticos, la primera víctima del esta nueva filosofía podría ser la igualdad. Una idea que se basa en que todos poseemos una esencia humana más importante que las diferencias que nos separan.

Josep Muntañola, catedrático de Projectes d’Arquitectura de la Universitat Politècnica de Catalunya que asistía a un congreso en Polonia sobre el tema asegura que la arquitectura actual ya contiene las semillas del transhumanismo y apuesta por una visión positiva del fenómeno: «Como decía Bajtin, nadie puede escapar a su propia libertad, y los arquitectos, los primeros, con transhumanismo o sin él.

Pero, en cualquier caso, bienvenido sea si lo que nos ofrece a los seres que existimos hombres o superhombres- es más libertad en la salud y en la paz: supersalud y superpaz,por supuesto».

La sociedad no caerá de repente en el hechizo que generan sus promesas. Pero es muy posible, como denuncia Fukuyama, que mordisqueemos las tentadoras ofertas de la biotecnología sin ver su incierto coste moral.