23 Dic El 45,5% de las empresas no tiene ninguna normativa interna relativa al uso de Chat GPT
Un informe de Kaspersky realizado entre directivos españoles revela el aumento de la preocupación
de los altos cargos de las empresas por los riesgos que supone el uso de sistemas de Inteligencia Artificial Generativa (GenIA), como Chat GPT, por la
posible pérdida de información confidencial y el control comercial. El 96% de los encuestados en España cree que sus empleados utilizan regularmente
este tipo de sistemas.
La Inteligencia Artificial Generativa se ha convertido en un aliado empresarial capaz de automatizar procesos y realizar un amplio abanico de
tareas, pero la alta dirección de las empresas desconfía por los riesgos de seguridad que puede implicar para el negocio.
Del total de los directivos encuestados por Kaspersky en España, solo el 19% ha debatido la imposición de reglas para controlar el uso de Inteligencia
Artificial Generativa, a pesar de que el 95% afirma que es necesario un mayor conocimiento del uso que los empleados hacen de esta tecnología para
estar protegidos frente a riesgos de seguridad críticos o fugas de datos. La cosa va más allá: un 64% teme pérdidas económicas en las organizaciones.
Otro estudio de Kaspersky entre los usuarios empresariales de la Inteligencia Artificial Generativa de nuestro país
desvela que el 25% de quienes usan Chat GPT en el trabajo, el sistema de Inteligencia Artificial Generativa más popular, no sabe lo que pasa con los
datos que introduce en la herramienta. Hay que destacar que Chat GPT puede almacenar información como la dirección IP, el tipo de navegador y la
configuración del usuario, así como datos sobre las funciones más utilizadas.
La concienciación y regulación por parte de las empresas juega un papel importante para mantener segura la información, pero, según los empleados
encuestados, el 45,5% de las empresas no tiene ninguna normativa interna relativa al uso de Chat GPT. Un 19% dice que sí hay normas, pero no
suficientemente claras; un 7% señala que las normas son claras, pero no se cumplen; y solo en un 27% son claras y, además, se cumplen.
Son datos paradójicos si se tiene en cuenta que la mitad de los directivos españoles tiene planes a futuro para utilizar GenIA y automatizar tareas. El
46% señaló su intención de integrar esta tecnología en sus propias rutinas para mejorar la productividad, y también en las de los empleados (43%).
“GenIA ofrece enormes beneficios de productividad a las empresas. Nuestros análisis revelan que los directivos han detectado su presencia en las
organizaciones, si bien reconocen que el alcance de su uso es un misterio. Los sistemas Inteligencia Artificial Generativa se encuentran en claro
crecimiento, y cuanto más tiempo funcionen sin control más difícil será proteger áreas del negocio como recursos humanos, finanzas, marketing o incluso
TI”, alerta David Emm, analista principal de Seguridad de Kaspersky.
A pesar de todo esto, el 16% de los españoles que usa Chat GPT en el trabajo considera que no es importante mantener la privacidad en las preguntas que
realizan al chatbot, y el 31% considera que es importante no compartir datos privados, pero aun así lo hace.
Chat GPT asegura que no comparte la información facilitada por el usuario con terceros. Solo la retiene para mejorar la plataforma y proporcionar
respuestas lo más precisas posibles, usando los datos recopilados para mejorar el modelo de lenguaje y afinar al máximo la experiencia del usuario.
“Sin embargo, hay que tener en cuenta que la política de privacidad de Chat GPT se refiere únicamente al uso de los datos de los usuarios registrados
en dicha plataforma, pero no especifica nada sobre el uso de datos personales que puede hacer la IA de otras fuentes, como las que usa para generar los
textos que devuelve”, explica Marc Rivero, Senior Security Researcher de Kaspersky.
Es importante reconocer el riesgo potencial asociado con la introducción de información confidencial en Chat GPT, ya que los ciberdelincuentes
aprovechan esta herramienta para generar código malicioso y estafas de phishing altamente creíbles. En este sentido, los expertos aconsejan evitar
introducir información delicada, tanto personal como corporativa, que pueda ser susceptible de caer en manos de ciberdelincuentes. En el caso de
empresas, se sugiere establecer normas internas que regulen el uso de Chat GPT y concienciar a los empleados sobre la importancia de no compartir
ciertos datos, brindando educación en ciberseguridad. Además, se recomienda precaución al recibir enlaces de sitios web desconocidos, ya que estos
pueden contener programas maliciosos o redirigir a sitios de phishing. Estos enfoques ayudarán a mitigar los riesgos asociados con el uso de Chat GPT y
protegerse contra posibles amenazas cibernéticas.