Todo aquel que digitalice y utilice tecnologías como la inteligencia artificial debe enfrentarse a cuestiones éticas. Las empresas no solo deben controlar la tecnología, sino también ser capaces de evaluar sus consecuencias. De la misma manera que desde hace tiempo existe la seguridad por diseño, la ética por diseño debe convertirse en la norma. El sector de la salud, en particular, debe prevenir los efectos secundarios indeseables de la IA y el Big Data.
¿Utilizas un programa de bonificación de tu compañía de seguros médicos y te premian porque puedes demostrar con tu teléfono inteligente que sales a correr con regularidad? ¿Y te parece que la oferta es éticamente correcta? No tengo nada que criticar. Estas ofertas deportivas son éticas porque recompensan el esfuerzo adicional con el apoyo de la tecnología moderna y no discriminan un déficit. Ya estamos en el tema: con la digitalización de la atención médica, el foco de atención se está desplazando de la terapia tradicional a la predicción, la prevención y la medicina de precisión. Las tecnologías modernas como la IA o el Big Data son una bendición porque abren nuevos métodos de tratamiento. Sin embargo, muchas personas tienen sus reservas. Ahora bien, si comprobamos de antemano si su uso es éticamente correcto y desarrollamos una mayor conciencia de las cuestiones éticas, esto contribuye a reforzar la aceptación de las tecnologías disruptivas. Y la IA se convierte en un medicamento eficaz.
Si la inteligencia artificial despierta temores, tenemos que discutir cómo podría ser un marco ético para su uso.
¿Qué pueden hacer ya las tecnologías digitales? Gracias al aprendizaje automático, los teléfonos inteligentes reconocen la demencia, el autismo o el Covid-19; la IA detecta tumores en una fase temprana, los marcapasos en red envían alertas automáticas al personal médico encargado. Con las tecnologías digitales, se pueden desarrollar terapias médicas adaptadas a los pacientes, a su genoma y a sus necesidades individuales. La realidad aumentada y la robótica permiten operar a distancia. Según la Federación Internacional de Robótica (IRF, por sus siglas en inglés), se espera que las ventas mundiales de robots médicos crezcan hasta los 11 300 millones de dólares este año, más del doble que en 2019. Y ¿qué tienen en común todas estas soluciones médicas? Todas ellas necesitan los datos de los pacientes. Dado que esta información es muy confidencial, la protección de datos y la anonimización desempeñan un papel importante. La transparencia es la máxima prioridad. Siempre debe quedar claro qué información puede utilizarse para qué.
Nos adentramos así en el terreno de la ética digital. Pero, ¿qué significa eso exactamente? Las empresas que quieran aprovechar las oportunidades de la digitalización deben actuar de forma ética. Tienen que abordar las consecuencias morales de la transformación digital para los individuos y la sociedad y seguir un sistema de valores integral. De lo contrario, se arriesgan a sufrir daños de reputación y responsabilidad. Sus normas y reglamentos incluyen, por ejemplo, la protección de datos y la seguridad informática, la protección de la personalidad, la protección de la intimidad y la autonomía de las personas. Estas empresas e instituciones garantizan la transparencia de los datos que utilizan para las aplicaciones de IA. Esto se debe a que desean evitar posibles distorsiones y, por tanto, desventajas para determinados grupos de personas. Desarrollan directrices de «ética digital» para sus empleados, equipos de desarrollo y proveedores de servicios. Y antes de utilizar soluciones digitales para mejorar la salud, analizan si chocan con los principios éticos.
La ética digital no es un accesorio, sino que desde hace tiempo tiene una importancia fundamental para las empresas.
El Reglamento General de Protección de Datos prevé una multa de hasta el cuatro por ciento de la facturación global anual o de hasta 20 millones de euros en caso de que se produzca una infracción. Y no solo el sector de la salud debe prepararse para nuevas regulaciones. Dado que los expertos consideran que las aplicaciones de IA son una prueba decisiva para la protección de datos, la Comisión Europea presentó en abril de 2021 el proyecto de ley para una inteligencia artificial digna de confianza, con el que se busca sancionar las infracciones con hasta el seis por ciento de la facturación anual mundial. Esta Ley de IA de la UE tiene como objetivo regular todos los despliegues de IA para 2024 y agruparlos en clases de seguridad.
Teniendo en cuenta la ética digital, las empresas de cualquier sector deberían estar en condiciones de responder a las siguientes preguntas:
Cuando se trata de la ética digital y la innovación centrada en los datos, el cumplimiento de las normas debe desempeñar un papel fundamental en el desarrollo de un marco de cumplimiento que traduzca los valores y las leyes en orientaciones prácticas.
Siempre que se utilicen datos y sistemas confidenciales, la ética en el diseño será una necesidad en el futuro. La ética es el requisito previo para la aceptación social de una marca y sus productos y servicios digitales. Las empresas obtienen reconocimiento no solamente por sus productos innovadores, sino, cada vez más, por su sistema de valores. Y, por lo tanto, deben ser conscientes de las posibles trampas de las tecnologías modernas: la IA, en particular, es un tema apasionante. Porque ofrece posibilidades increíbles y, sin embargo, tenemos que contenerla. Mi colega Torsten Deutsch nos explica, en un artículo de su blog que vale la pena leer, cómo funciona esto exactamente, por qué las empresas necesitan directrices para sus algoritmos inteligentes y qué errores puede cometer una IA.
Si quieres saber dónde están los White Spots en tu empresa, no dudes en ponerte en contacto conmigo directamente: Steffen.Kuhn@detecon.de.