T-Systems-Claim-Logo
Buscar
Primer plano de un rostro femenino con imágenes poligonales

¿Cómo consiguen las empresas un equilibrio inteligente con la IA?

ChatGPT, hiperautomatización, robótica: la IA permite numerosas innovaciones. Sin embargo, al manejar la IA, podemos pensar de otra forma

05-sep-2023Stephan de Haas

Repensar la IA

Las personas (y también algunas empresas) tienden a relegar las tareas complejas a un segundo plano y a ceder responsabilidades. Un ejemplo reciente: la cuestión de la ética y la sostenibilidad de las soluciones de IA que las empresas utilizan para automatizar sus procesos. La regulación de la UE, como la Ley de inteligencia artificial, también nos obliga a examinar detenidamente las oportunidades y los riesgos de la IA para que la IA responsable mejore nuestras vidas.

La IA es buena, ¿todo va bien?

Con la Ley de inteligencia artificial aprobada por el Parlamento Europeo, la UE busca regularla. Se aplica a las empresas que suministran o utilizan sistemas de IA en el mercado de la UE, independientemente de dónde tengan su sede. La Ley de IA fue la llamada de atención necesaria para que muchas empresas abordasen la cuestión de la «IA responsable». Este es el primer resultado de nuestro último proyecto de investigación de T-Systems sobre IA. Me sorprendió ver que las empresas ya están aprovechando las oportunidades que les ofrece la IA, pero tienden a descuidar su uso responsable. Y ello es, precisamente, lo más importante de la IA. Repensar la IA: para mí, esto significa que la IA debe estar al servicio de nuestro bien, como personas, y del planeta. Por tanto, ahora todos deberíamos preguntarnos cómo tendrá éxito la transformación hacia una empresa responsable impulsada por la IA.

Nuestro equilibrio a la hora de manejar la IA

Mano de una mujer mostrando un cuadro de mandos futurista de una interfaz de usuario

En nuestra Comunidad de cocreación de T-Systems, entrevistamos sobre este tema a ejecutivos de departamentos de TI y especialistas de diversos sectores. En el proceso, nos dimos cuenta de una dicotomía interesante. Yo lo llamo «la IA de dos velocidades». A las empresas les resulta difícil conciliar su voluntad de experimentar con las exigencias normativas. Muchos de los encuestados temen que las empresas alemanas y europeas salgan perdiendo si tienen que cumplir demasiadas exigencias. Se extiende la incertidumbre, pues, por un lado, la tecnología se desarrolla con rapidez, y basta pensar en ChatGPT y la IA generativa en general. Por otro lado, para las empresas es difícil estimar lo que traerá consigo la normativa. Esto se vuelve peligroso cuando esta combinación frena a todas aquellas empresas que desean utilizar la IA e implementarla en sus procesos empresariales.

Las 5 mejores IA centradas en la persona

Ya no se trata de si las empresas introducirán la IA, sino de cómo lo harán. Porque la IA seguirá cambiando nuestro mundo. Y todavía depende de nosotros, las personas, decidir cómo desarrollar los algoritmos inteligentes. Las personas tenemos que pensar y decidir en la dirección correcta para que la IA actúe como queremos. Tenemos que tomar precauciones si queremos conseguir una IA responsable y centrada en las personas.

  1. Entrenamos la IA de forma responsable y tenemos en cuenta las normas éticas.
  2. Entendemos la IA como una extensión de las capacidades humanas. Los expertos en IA lo llaman incremento.
  3. Reducimos los riesgos haciendo que las personas comprueben y controlen los resultados de la IA.
  4. No equiparamos responsabilidad con ética; solo hablamos de «IA responsable» cuando esta, además, preserva los recursos naturales y el clima. Por tanto, debemos reducir su huella ecológica.
  5. Capacitamos a los empleados en el manejo de la IA y nos tomamos en serio sus temores.

Fuera de la caja negra

Cara de robot de IA a través de una rejilla y con un movimiento veloz

La IA es, con demasiada frecuencia, una caja negra que se puede utilizar inadecuadamente para denuncias falsas y deepfakes. Por ello, la Ley de inteligencia artificial, que probablemente entrará en vigor en 2026, exige una mayor supervisión del uso de la IA y más fiabilidad, transparencia y efectividad de los controles. En función del nivel de riesgo del sistema de IA, se realiza una clasificación en cuatro niveles de riesgo: inaceptable, alto, limitado o bajo. El objetivo es disponer de unas normas de diseño y desarrollo que sean vinculantes. Y quienes trabajen de forma inadecuada a la hora de seleccionar los datos o en los entrenamientos corren el riesgo de vulnerar la protección de datos, discriminar o reproducir estereotipos. Los infractores se enfrentan a unas sanciones que pueden alcanzar el 6 % del volumen de negocios. Una razón más por la que podemos buscar en la IA una IA centrada en la persona y una responsabilidad corporativa transparente.

¿Puede la IA hacer que nuestro mundo sea más verde?

La actual propuesta de Ley de la IA de la UE también hace hincapié en el papel de la IA en el cambio climático y para el medioambiente. Los principales objetivos son la seguridad y el desarrollo del mercado, pero también los beneficios medioambientales. Yo lo veo como un claro mandato porque la huella digital del sector de las TIC es cada vez mayor. De acuerdo con la Universidad de Berkeley, únicamente el entrenamiento del modelo lingüístico de GPT-3 consumió 1,287 gigavatios/hora de electricidad. Ello equivale, en promedio, al consumo de 120 hogares estadounidenses en un año. Por tanto, además de centrarnos en la IA ecológica (es decir, en unos procesos de IA que hagan el mundo más verde y sirvan para proteger el clima, la naturaleza y las especies), también debemos prestar más atención al desarrollo y funcionamiento de los propios procesos de aprendizaje automático de forma que se conserven los recursos. Con más rapidez. Por eso, cada vez tenemos una participación mayor en el Centro mundial de innovación sobre el cambio climático de las Naciones Unidas y en la Acción digital verde en la COP28 como parte de nuestra Junta consultiva de cocreación para la sostenibilidad, y queremos presentar soluciones concretas en la COP 29 que tendrá lugar en 2024.

¿Cómo podemos ser más sostenibles juntos?

Precisamente por eso espero tanto del enfoque de la cocreación, gracias al que ponemos en contacto a generadores de ideas de todos los sectores. Uno de los proyectos que estamos impulsando en el marco del Consejo asesor de la cocreación para la sostenibilidad es la «Academia de la sostenibilidad». Colaboramos en esta iniciativa con el Campus medioambiental de Birkenfeld y una empresa emergente de IA especializada en conectar la IA y el medio ambiente. Facilitamos a las empresas módulos de aprendizaje personalizados sobre la transformación sostenible con los que pueden dar capacitación a su personal. Los chatbots de sostenibilidad también son muy populares entre las empresas. También vemos oportunidades prometedoras para la IA en los informes de ESG. Para ello, ofrecemos un intercambio digital regular con expertos a través de nuestras #Experience Sessions.

A quien madruga Dios le ayuda

Este refrán resume bastante bien la responsabilidad a la hora manejar la IA. Tampoco es algo nuevo para T-Systems. Podemos tomar como base las directrices de Telekom sobre IA y, actualmente, estamos ampliando nuestro sistema de gestión de riesgos con vistas a la Ley de IA. El marco de ética digital de Detecon también ofrece indicios para el desarrollo futuro de la IA hacia una IA responsable. El hecho de que nuestro Grupo se ocupe intensamente del tema también queda subrayado por el Manifiesto sobre el uso de la IA y nuestra participación en la Ley de IA de la UE. Estoy convencido de que surgirán muchas oportunidades para las empresas si se comprometen con el nuevo entorno normativo. Al fin y al cabo, no se trata únicamente de cumplir exigencias externas. Quienes contribuyen a darle forma se aseguran así de que sus propios empleados interioricen la importancia y la implementación de la IA responsable en una fase temprana. Además, les está resultando más sencillo explotar el potencial de los datos y la IA y elaborar una hoja de ruta estratégica para usar la inteligencia artificial con responsabilidad. 

¿Cuál es el futuro de una IA responsable?

Queremos marcar la diferencia con nuestra empresa y el enfoque de la cocreación y ponernos no solo las gafas de la ética y la responsabilidad, sino también las de la sostenibilidad en lo que a IA se refiere. Cuando hablamos de IA centrada en las personas, estamos ampliando nuestra anterior orientación al cliente. La tecnología debe beneficiar tanto a las personas como al medioambiente y el clima. Nuestro objetivo se llama «AI for People & Planet». Por ello, queremos elaborar una lista de verificación de la «IA responsable» basada en los resultados de nuestra investigación. Y explicarles a nuestros clientes a qué deben prestar atención, por ejemplo, a la hora de tratar modelos de datos. Estoy convencido de que juntos seremos capaces de crear una «AI for Good». ¿Te unes? Estoy deseando trabajar contigo.

Información sobre el autor
Stephan De Haas

Stephan de Haas

Director de cocreación y consultoría de clientes, T-Systems International GmbH

Todos los artículos y perfil del autor

Esto también podría interesarte

Do you visit t-systems.com outside of Mexico? Visit the local website for more information and offers for your country.