srcset

Pensamiento

¿Estamos en riesgo? La ética, desafiada por una ciencia que no para

Lorena Oliva
(0)
1 de julio de 2018  

El futuro es aquí y ahora. La base sobre la que se asientan las principales innovaciones científicas y tecnológicas que marcarán el pulso mundial en las próximas décadas se está consolidando ahora mismo, mientras usted lee esta nota.

Los enormes avances registrados en los últimos años en materia de biotecnología, edición genética, tecnologías de la información, inteligencia artificial y nanotecnología se presentan como una promesa de mejoras sustanciales en la vida cotidiana, capaces de dar solución a muchos de nuestros problemas, como por ejemplo la cura de enfermedades, una mayor eficiencia en el trabajo, la posibilidad de acceder a diagnósticos médicos más certeros y dar respuestas a problemas ambientales producidos por el cambio climático.

El enorme potencial de todas estas disciplinas -ya sea individualmente o combinadas entre sí- tiene su contracara. Una manipulación excesiva o equivocada podría cambiar de manera drástica no solo el planeta tal y como lo conocemos, sino, incluso, la humanidad misma. Ya lo ha dicho el futurista alemán Gerd Leonhard: "La tecnología no tiene ética, pero la humanidad depende de ella". ¿Contamos con mecanismos de resguardo suficientes para que, en el afán de generar conocimiento aplicado, no se pierda de vista el bien común y aquellos valores que, aunque también cambiantes, sostienen y vertebran la especie? ¿Seremos capaces de trazar un límite claro cuando sea necesario trazarlo?

Jennifer Doudna, la creadora de Crispr Cas9, un sistema de edición genética revolucionario de sencilla aplicación, se ha vuelto en los últimos tiempos una de las principales difusoras de la necesidad de que su creación se utilice de manera ética. En una entrevista en La Vanguardia realizada el año último, explicaba que, con su técnica, las posibilidades son ilimitadas. Así como podría ser fundamental para la cura de enfermedades como el cáncer, también permitiría el nacimiento de humanos genéticamente modificados. "La genética está lista para hacerlo, pero la ética no -reconocía la especialista-. Todavía no hemos mantenido el debate ético, jurídico, social y democrático para que estas modificaciones sean aceptables".

Jennifer Doudna, creadora de la técnica Crispr
Jennifer Doudna, creadora de la técnica Crispr Crédito: MATT EDGE/NYT

De todas maneras, la falta de un debate ético que defina los alcances y los límites de la técnica Crispr no ha sido obstáculo para su utilización. Hace algunos meses, la propia Doudna había contabilizado la publicación de más de 8400 papers sobre investigaciones que utilizaron la mencionada técnica de edición genética desde que se difundiera, en 2012.

Con esta técnica de edición genética está ocurriendo algo que también puede observarse en el campo de la inteligencia artificial: las regulaciones o los acuerdos éticos llegan después y, en ocasiones, cuando la disciplina que se pretende regular ya evolucionó.

Así, por ejemplo, mientras en algunos países, como el nuestro, no hay total acuerdo acerca del estatus de un embrión humano, hace unos años se contaban más de diez mil embriones criopreservados en las clínicas de fertilización asistida. A pesar del limbo regulatorio en el que están inmersos los embriones, los actuales avances permitirían modificarlos genéticamente e, incluso, abren la puerta a la clonación.

En el caso de la inteligencia artificial, por otra parte, no hay consenso acerca de cuáles deben ser sus alcances y límites; sin embargo, los especialistas ya están hablando de inteligencia artificial general, o súper inteligencia artificial, una fase más avanzada de la IA en la que las máquinas serían capaces de hacer todo aquello que hace el cerebro humano, pero mucho mejor y mucho más rápido. Esta posibilidad tiene, como puede suponerse, un número importante de críticos y detractores que anticipan todo tipo de escenarios catastróficos a partir del momento en que las máquinas eventualmente superen a la raza humana.

La mente y el software

En esta enumeración cabría sumar una serie de experimentos o innovaciones que cuestionan algunas de nuestras nociones actuales respecto de una diferenciación estricta entre lo humano y lo tecnológico. Así, por ejemplo, empresas como Neuralink o Neurable trabajan proyectos de neurotecnología con la finalidad de poder controlar software o artefactos con nuestra mente. Algo similar ocurre en el campo de la nanomedicina, con el desarrollo de nanoimplantes con todo tipo de finalidades: desde la reparación de tejido humano hasta para la prevención, el monitoreo o el tratamiento de enfermedades.

Pero dado que, como se ha dicho, las instancias de control no siempre logran moverse al compás de los incesantes avances de la ciencia y la tecnología, se vuelve crucial la responsabilidad y el posicionamiento ético de los científicos que trabajan en estos campos, junto con dispositivos que permitan detectar y poner freno a prácticas éticamente cuestionables. Ahí las opiniones son divergentes: mientras que algunos analistas consideran que el quehacer de los expertos cuenta con suficientes mecanismos de regulación y autorregulación, hay quienes sostienen que no en pocas ocasiones se pierde de vista la dimensión ética en el apuro de generar patentes.

El investigador superior del Conicet Alberto Kornblihtt se ubica en el primer grupo. "Es poco probable que se hagan cosas con poca ética. No imposible, pero poco probable. La actividad está controlada académicamente, pero además uno no trabaja solo en el mundo sino que pertenece a instituciones donde cualquier cosa que se haga es observada por colegas, discípulos y maestros. En el ámbito privado no hay control del Estado de lo que se investiga, pero la investigación en empresas privadas es casi despreciable en la Argentina", considera.

Para reforzar sus dichos, Kornblihtt menciona un incidente ocurrido en el país en los años 80 en la localidad de Azul. "Una empresa privada quería inyectar vacas a campo abierto con un virus recombinante del virus de la viruela vacuna (llamado vaccinia) con el virus de la rabia y estudiar, entre otras cosas, la aparición de pústulas en los peones que ordeñaban las vacas. Los científicos, liderados por el fallecido biólogo molecular Mariano Levin, nos enteramos, alertamos a las autoridades y el experimento fue abortado. Existen consensos a nivel internacional como nacional sobre qué no debería hacerse y también sobre los cuidados a tener con lo que se hace. Por eso es importante que la ciencia se realice en instituciones certificadas y lo ideal es que se garantice esto último en lugar de promover leyes que proscriban o limiten la actividad científica".

El riesgo de una subespecie

En cuanto a los avances científicos actuales, Kornblihtt, también profesor titular plenario de la Facultad de Ciencias Exactas y Naturales de la UBA, tiene una posición muy clara respecto de la técnica Crispr. "Debe ser muy controlada. Podría usarse para modificar embriones. Hay posibilidades muy concretas al respecto, ese es el problema. Yo no estoy de acuerdo con que se modifiquen embriones humanos. En primer lugar porque los resultados de corregir defectos genéticos en embriones son difíciles de predecir. Puede haber efectos no deseados. Si se llegara a modificar genéticamente un embrión, eso lo heredarían las siguientes generaciones y podría dar lugar a subespecies de humanos con diferencias genéticas heredables que los hagan superiores a otros que no tienen acceso a dicha modificación", alerta.

El científico de datos Marcelo Rinesi considera que el mayor déficit de regulación ética no está en la investigación primaria sino en la aplicación industrial de nuevas tecnologías. "En la investigación primaria los mecanismos de monitoreo son bastante robustos y efectivos -afirma-. En una fase secundaria, donde los descubrimientos se transforman en productos, hay más variabilidad: la aplicación biomédica está muy regulada, mientras que lo que es software, poco y nada. Pasa en parte por cuestiones de intereses económicos pero también porque los mecanismos políticos y regulatorios avanzan mucho más lento que los productos".

Un dron con inteligencia artificial. Numerosos expertos alertan sobre el riesgo de que este tipo de dispositivos sea utilizado con fines bélicos
Un dron con inteligencia artificial. Numerosos expertos alertan sobre el riesgo de que este tipo de dispositivos sea utilizado con fines bélicos Crédito: LAURA MORTON/NYT

De esta manera, según Rinesi, el problema central no radicaría en lo que hacen o no los programadores que investigan sobre inteligencia artificial, sino, por ejemplo, en que una empresa como Uber ya esté utilizando vehículos autónomos (sin conductor). En relación con el incidente ocurrido en marzo de este año, en el que un auto de este tipo atropelló y mató a una mujer, el experto, también miembro del Instituto Baikal y director de tecnología del Institute for Ethics and Emerging Technologies, con sede en Estados Unidos, agrega: "El análisis técnico mostró que el auto detectó a tiempo que había algo adelante, aunque no lo identificó como persona. No frenó porque estaba configurado para hacer el viaje lo más suave posible, y lo hizo a costa de la seguridad".

Alcance de la reflexión ética

Una disciplina que sigue de cerca esta clase de discusiones es la bioética en su acepción más amplia (ya que con frecuencia se la asocia específicamente con la ciencia médica). La directora del Programa de Bioética de Flacso, Florencia Luna, recuerda que cuando comenzó con un programa de entrenamiento en la materia en el año 2000, la dimensión ética de la investigación estaba poco difundida. "La bioética permite hacer una reflexión al respecto y buscar cuáles son los límites lógicos y racionales de la ciencia. No tiene poder de policía. Sin embargo, se pueden observar consecuencias indirectas ante un hipotético mal proceder. Por ejemplo, hoy en día las revistas académicas están poniendo límites y exigiendo que las investigaciones hayan sido acreditadas o aprobadas por un comité de ética, o que no traspasen determinados límites éticos", afirma.

Hoy existen, a nivel internacional, numerosos protocolos y regulaciones que se aplican sobre todo en las disciplinas más tradicionales aunque, aseguran, algunos de ellos se contradicen. A nivel local, en tanto, contamos con el Comité Nacional de Etica en la Ciencia y la Tecnología (Cecte), que depende del Ministerio de Ciencia, Tecnología e Innovación Productiva de la Nación, aunque el organismo no contaría con suficiente visibilidad. "El Cecte está cumpliendo un papel muy necesario -sostiene Kornblihtt-. Debería ser más conocido no sólo por la comunidad científica sino también por las autoridades y por la población en general. Cuando sale una recomendación está muy pensada y elaborada. Es un trabajo extraordinario que muy poca gente conoce. Se ha pronunciado sobre fecundación asistida, clonación de humanos y uso de fondos de fuerzas armadas de otros países para investigación en nuestro país, entre otros temas".

Sin embargo, hay quienes tienen claras objeciones, no sólo con respecto a los alcances de la bioética, o de la reflexión ética realizada por terceros, sino también con respecto a sus supuestos beneficios. "Después del proyecto Manhattan [que hizo posible la invención de la bomba atómica], no quedaron dudas de que la ciencia genera efectos en la calidad de vida de las personas y del ambiente, por lo que se hizo necesario repensar el lugar del científico y los alcances de su quehacer. Pero el resultado de este proceso fue generar un sistema que tercerizó la pregunta ética y la colocó en el seno de un conjunto de profesionales que, en gran medida, se dedica al armado de leyes y protocolos que regulan la actividad", sostiene Guillermo Folguera, doctor en Ciencias Biológicas y licenciado en Filosofía, en ambos casos por la UBA.

"Hoy te encontrás con una comunidad científica y tecnológica que incide como nunca en la historia, pero que no le da demasiado espacio a preguntas filosóficas, que no se pregunta para qué hacen ciencia, porque hay una aparato de profesionales que marcan cualquier balance o diagnóstico", se lamenta Folguera a quien, por otra parte, no le parece casualidad que la bioética se desarrolle en un contexto, dice, neoliberal. "La ética podría funcionar como freno ante cualquier eventual desbalance. Pero en tiempos en los que los que uno de los principios rectores de la comunidad es el mercado, solo ciertas preguntas están permitidas".

En sintonía con Folguera se presenta Nahuel Pallito, licenciado en Biología y doctorando en Filosofía. En su artículo "El espíritu (tecno)científico que convendría evitar y resistir", escrito en coautoría con Federico Di Pasquo, puede leerse: "La tecnociencia coloca los valores epistémicos entre bastidores, y son los valores económicos y empresariales los que traccionan la práctica y el conocimiento científico. Alcanzar el objetivo económico se vuelve una prioridad y entonces las incoherencias, las contradicciones, las tensiones teóricas, las cuestiones éticas y las implicancias sociales, ecológicas y para la salud humana son simplemente dejadas de lado".

Abrir el juego

Pallito recuerda que durante su formación en Biología no cursó una sola materia que abordase la reflexión de la dimensión ética en la práctica profesional. "Se asume una neutralidad valorativa de la ciencia. Así, el científico no sería responsable de los conocimientos que genere sino que sólo se hace cargo de los resultados positivos de sus investigaciones. Y esta es una era que ha hecho una mercancía del conocimiento. En el apuro por la generación de nuevas patentes, lo que se valora es que sea conocimiento útil. La búsqueda de la verdad ha dejado de ser central", reflexiona.

A la hora de pensar estrategias que impidan que la onda expansiva de la ciencia y la tecnología pierda su curso, la ética se vuelve un concepto clave y central, aunque no es el único. Diferentes actores locales e internacionales ponen también el énfasis en la necesidad de organizar esquemas democráticos, participativos, que garanticen la representatividad de todos los actores involucrados a la hora de reflexionar sobre los alcances de determinadas innovaciones.

"La alternativa a este modelo en el que un cuerpo de profesionales regula y, por ende, diluye las responsabilidades individuales requiere fortalecer la democracia -recomienda Folguera-. Abrir el juego e incluir a todas las comunidades implicadas. Sobre todo, a las comunidades no expertas". Basta rastrear en la historia del último siglo para comprobar que cada vez que la ciencia o la tecnología se salieron de cauce, fueron ellas, justamente, las más afectadas.

ENVÍA TU COMENTARIO

Ver legales

Los comentarios publicados son de exclusiva responsabilidad de sus autores y las consecuencias derivadas de ellos pueden ser pasibles de sanciones legales. Aquel usuario que incluya en sus mensajes algún comentario violatorio del reglamento será eliminado e inhabilitado para volver a comentar. Enviar un comentario implica la aceptación del Reglamento.

Para poder comentar tenés que ingresar con tu usuario de LA NACION.

Usa gratis la aplicación de LA NACION, ¿Querés descargala?