Últimas noticias: Toteemi, gaming para deportistasNuevo Lexus LBXAyudas para jóvenes en extranjeroEl efecto Taylor Swift ¿Cómo generar leads?Business angels: en qué inviertenTecnología española con OscarPremio ideas centros comercialesEncuentros en CASA SEATAromas que ayudan a vender
x
Contenidos exclusivos, revista física
y muchas más ventajas
Publicidad

No hay seguros que cubran los riesgos de la inteligencia artificial

La transformación digital de la sociedad ha aumentado la exposición a los ciberriesgos. Aunque el mercado de los ciberseguros está creciendo y cada vez ofrece más coberturas, Mapfre advierte que ...

13/08/2023  David RamosIA

La irrupción de ChatGPT ha hecho que todos nos demos cuenta del potencial de la inteligencia artificial, pero también de los riesgos que comporta.

Esta tecnología es una de las que está impulsando la transformación digital de la sociedad y la economía, pero no es la única. Como consecuencia de este proceso, las personas, las empresas y las instituciones han aumentado su exposición ante los riesgos cibernéticos. De hecho, los expertos en ciberseguridad siempre dicen que ya no cabe plantearse si seremos atacados, sino cuándo sucederá.

Ante este panorama, no queda otra opción que estar prevenidos. Dicha cautela implica aumentar las medidas de ciberseguridad, realizar copias de respaldo con frecuencia, diseñar planes de recuperación y resiliencia ante posibles ataques e incluso suscribir un ciberseguro.

De hecho, el mercado de los seguros cibernéticos está en pleno auge. Según un informe de GlobalData este mercado alcanzará los 33.400 millones de dólares en 2027, lo que supone un crecimiento acumulado del 54,6% respecto a la facturación esperada para el presente ejercicio. Asimismo, SkyQuest prevé que el mercado de los ciberseguros supere los 79.750 millones de dólares en 2030, con un crecimiento medio anual del 25,7% en el periodo 2023-2030, tal y como recoge Füture.

Así pues, la oferta de ciberseguros cada vez es mayor y estos productos incluyen un amplio abanico de coberturas, que van desde los daños propios (a activos digitales, interrupción de negocio, pérdidas asociadas a ransomware, gastos de investigación, gestión de crisis y costes de reputación) hasta los daños a terceros (responsabilidad frente a terceros y empleados propios, gastos legales por el uso no autorizado de datos, ataques DDoS, etc.).

Sin embargo, Mapfre advierte que la oferta de seguros que cubran los riesgos asociados al uso de la inteligencia artificial es “inexistente”, según manifestó durante la presentación del informe ‘Inteligencia Artificial responsable. Tecnología confiable, segura y sostenible para generar la economía del futuro’. La entidad afirma que sólo hay algunas áreas que cuenten con seguros de este tipo, como los vehículos autónomos y los procesos industriales, tal y como informa La Vanguardia

“La preocupación de los legisladores y las empresas es cada vez mayor, pero los riesgos aún son poco conocidos. El concepto de inteligencia artificial responsable debe situarse en primer plano para tomarse en serio la tecnología y colaborar para establecer formas comunes para trabajar con ella”, declaraba en dicho acto Bárbara Fernández, directora adjunta de Mapfre Open Innovation.

Tres tipos de riesgos asociados a la inteligencia artificial

El estudio de la aseguradora enumera tres tipos de riesgos e impactos derivados de la inteligencia artificial: el operativo —referido a la seguridad—, el ético y el regulatorio. Además, indica que el debate en torno al uso de esta tecnología, como en el caso de ChatGPT, se centra en su impacto en el marco laboral, la creación de contenido falso, la gestión de la propiedad intelectual y la protección de los datos.

Por ejemplo, hace algunos meses contábamos que ChatGPT ya se ha cobrado sus primeras ‘víctimas’ en nuestro país. Asimismo, nos hacíamos eco de las medidas aprobadas en Italia con el fin de formar a personas desempleadas o inactivas y trabajadores con empleos en alto riesgo de ser reemplazados por la inteligencia artificial y la innovación tecnológica.

“Actualmente, existe cierta percepción de control de los riesgos de la inteligencia artificial por parte de las empresas, aunque la ausencia de regulación y guías prácticas para el buen uso preocupa a la mayoría. Incluso algunos opinan que esta nueva tecnología acentúa los riesgos ya existentes”, precisa el informe.

En este sentido, Fernández expuso que las grandes empresas usuarias de la inteligencia artificial se han ‘puesto las pilas’ y se han anticipado a la regulación, promoviendo políticas internas para un uso responsable de esta tecnología.

Esto se concreta en la contratación de equipos especializados en ética y datos, el establecimiento de colaboraciones con centros de investigación y el desarrollo de códigos éticos para el uso de la inteligencia artificial.

David RamosDesde 2006, soy periodista freelance especializado en información económica, técnica y sectorial.