Empresas & Management

Google advierte a su propio personal sobre los chatbots

Alphabet Inc aconsejó a los empleados que no ingresen sus materiales confidenciales en los chatbots de inteligencia artificial.

2023-06-16

Por estrategiaynegocios.net

Alphabet Inc está advirtiendo a los empleados sobre cómo usan los chatbots, incluido su propio Bard, al mismo tiempo que comercializa el programa en todo el mundo, dijeron a Reuters cuatro personas familiarizadas con el tema.

La matriz de Google aconsejó a los empleados que no ingresen sus materiales confidenciales en los chatbots de IA, dijeron las personas y la compañía confirmó, citando una política de larga data sobre la protección de la información.

Los chatbots, entre ellos Bard y ChatGPT, son programas con apariencia humana que utilizan la llamada inteligencia artificial generativa para mantener conversaciones con los usuarios y responder a innumerables indicaciones. Los revisores humanos pueden leer los chats, y los investigadores descubrieron que una IA similar podría reproducir los datos que absorbió durante el entrenamiento, creando un riesgo de fuga.

Alphabet también alertó a sus ingenieros para evitar el uso directo del código de computadora que pueden generar los chatbots, dijeron algunas personas.

Cuando se le pidió un comentario, la compañía dijo a Reuters que Bard puede hacer sugerencias de código no deseadas, pero que, sin embargo, ayuda a los programadores. Google también dijo que su objetivo era ser transparente sobre las limitaciones de su tecnología.

Lanzamiento en la UE del chatbot Bard es pospuesto por problemas de privacidad

Las preocupaciones muestran cómo Google desea evitar daños comerciales por el software que lanzó en competencia con ChatGPT. En la carrera de Google contra los patrocinadores de ChatGPT, OpenAI y Microsoft Corp, están en juego miles de millones de dólares de inversión y publicidad e ingresos en la nube aún no revelados de los nuevos programas de IA.

La precaución de Google también refleja lo que se está convirtiendo en un estándar de seguridad para las corporaciones, es decir, advertir al personal sobre el uso de programas de chat disponibles públicamente.

Un número creciente de empresas en todo el mundo ha establecido medidas de protección en los chatbots de IA, entre ellas Samsung, Amazon.com y Deutsche Bank, dijeron las empresas a Reuters. Apple, que no devolvió las solicitudes de comentarios, al parecer también lo ha hecho.

Alrededor del 43 % de los profesionales usaban ChatGPT u otras herramientas de inteligencia artificial a partir de enero, a menudo sin decirle a sus jefes, según una encuesta de casi 12,000 encuestados, incluidas las principales empresas con sede en EE. UU., realizada por el sitio de redes Fishbowl.

En febrero, Google le dijo al personal que estaba probando Bard antes de su lanzamiento que no le diera información interna, informó Insider. Ahora Google está implementando Bard en más de 180 países y en 40 idiomas como un trampolín para la creatividad, y sus advertencias se extienden a sus sugerencias de código.

12 ejemplares al año por $75

SUSCRIBIRSE