Ante preocupaciones sobre fugas de información Apple decide prohibir el uso de ChatGPT a sus empleados

En el mundo actual de la inteligencia artificial (IA) generativa, las fugas de información se han convertido en una preocupación creciente. Recientemente, tanto Samsung como Apple han tomado medidas para evitar la revelación de información confidencial por parte de sus empleados, prohibiendo el uso de ChatGPT, desarrollado por OpenAI. Estas acciones reflejan los desafíos que las empresas enfrentan al adoptar tecnologías de IA avanzadas y resaltan la necesidad de salvaguardar los datos y la privacidad.

La creciente popularidad de ChatGPT ha llevado a varias empresas a utilizarlo como herramienta de comunicación interna. Sin embargo, en el caso de Samsung, algunos empleados recurrieron a OpenAI y alimentaron a ChatGPT con información privada de la compañía. Esto generó una preocupación significativa en la dirección de Samsung, que decidió prohibir a sus empleados el uso de ChatGPT para evitar fugas de información confidencial.

Siguiendo los pasos de Samsung, Apple también ha tomado medidas preventivas para salvaguardar su información confidencial. Según un documento revisado por The Wall Street Journal, Apple emitió una directiva a sus empleados instándolos a no utilizar ni ChatGPT ni Copiloto de GitHub, otra herramienta de IA generativa. La empresa de Cupertino teme que sus empleados puedan revelar involuntariamente información sensible, lo que podría afectar negativamente a la empresa y sus proyectos en desarrollo.

La respuesta de OpenAI ante las filtraciones:

OpenAI, la compañía detrás del desarrollo de ChatGPT, ha demostrado estar comprometida con abordar las preocupaciones de privacidad y seguridad. En marzo, el chatbot fue brevemente desconectado después de que se revelaran conversaciones de usuarios. Como respuesta, OpenAI implementó un modo en el que ChatGPT no guarda historial de las conversaciones. La compañía ha asegurado que la información generada en este modo no se utilizará para entrenar al modelo de lenguaje, lo que proporciona un nivel adicional de protección de datos sensibles.

Los planes de Apple y el desarrollo de su propio modelo de lenguaje: Al igual que otras empresas tecnológicas, Apple está trabajando en el desarrollo de su propio modelo de lenguaje, según fuentes citadas por The Wall Street Journal. Aunque no se ha proporcionado información detallada sobre el propósito exacto de este modelo, se especula que podría ser utilizado para uso interno, como una herramienta de generación de código interno, o incluso podría ser lanzado públicamente en el futuro. Esta iniciativa de Apple sugiere una estrategia para tener un mayor control sobre las tecnologías de IA generativas utilizadas dentro de la empresa y reducir la dependencia de soluciones externas.

Entradas relacionadas