Después de una caída inicial del 9,7 % en el tráfico en junio, ChatGPT experimentó su segundo mes consecutivo de caída: su tráfico cayó otro 9,6 % en julio, según la última encuesta de la herramienta de análisis de datos de sitios web SimilarWeb.
SimilarWeb especula que la razón detrás de la disminución de las visitas de ChatGPT puede estar relacionada con las vacaciones de los estudiantes. Pero además, parece que cada vez más empresas también han comenzado a decidir deshabilitar ChatGPT, no solo Samsung y Apple, sino que empresas como JPMorgan Chase, Deutsche Bank, Verizon y Amazon también han restringido el uso de ChatGPT a sus empleados.
Y esta semana, BlackBerry lanzó un nuevo estudio:
▶ El 75 % de las organizaciones de todo el mundo están considerando prohibir el uso de ChatGPT y otras aplicaciones generativas de IA en el lugar de trabajo.
▶ El 61 % de las empresas que están implementando o considerando una prohibición de ChatGPT dicen que la desactivación de ChatGPT será a largo plazo o permanente.
**¿Por qué las empresas quieren desactivar ChatGPT? **
Según el blog oficial de BlackBerry, los datos de la investigación provienen de su encuesta a casi 2000 tomadores de decisiones de TI en los Estados Unidos, Canadá, el Reino Unido, Francia, Alemania, los Países Bajos, Japón y Australia.
Los resultados de la encuesta muestran que la prohibición de ChatGPT y la IA generativa está impulsada principalmente por el liderazgo técnico dentro de la empresa, y el director ejecutivo de casi la mitad de las empresas también desempeña un papel de liderazgo:
Hay muchas razones para oponerse al uso de ChatGPT en el lugar de trabajo. Alrededor del 67% de los encuestados piensa que los problemas de seguridad y privacidad de datos que ChatGPT puede traer son los mayores riesgos, seguidos por el riesgo de reputación de la empresa, que también es el principal riesgo. razón por la cual el 57% de las personas consideran deshabilitar ChatGPT uno.
De hecho, ya en marzo de este año, BlackBerry consultó a varios expertos en seguridad dentro de la empresa sobre el tema "¿Es seguro para las organizaciones usar ChatGPT?" para revelar a qué debe prestar atención cada organización cuando usa ChatGPT o herramientas similares, en general. hablando, se puede dividir en tres aspectos:
(1) Fuga de datos y problemas de seguridad de los chatbots de IA
Si se ingresa información confidencial de terceros o interna de la empresa en ChatGPT, esta información se convertirá en parte de sus datos de capacitación y se puede compartir con otras personas que hagan preguntas relevantes, lo que provocará una fuga de datos. Cualquier divulgación no autorizada de información confidencial a ChatGPT puede violar las políticas de seguridad corporativas.
(2) Consideraciones legales para el uso de chatbots de IA
Una vez que la seguridad de ChatGPT se ve comprometida, el contenido que debería haber estado protegido por contrato o ley podría verse comprometido y culparse a la organización, lo que afectaría la reputación de la empresa. Además, si se usa ChatGPT para generar código, es difícil definir quién es el propietario de los derechos de autor; el uso de ChatGPT para generar materiales escritos con derechos de autor, como materiales de código abierto autorizados, también causará problemas de derechos de autor e incluso puede hacer que la empresa viole la licencia OSS (Open Source Software).
También importante: los términos de servicio establecen que ChatGPT no se puede usar para desarrollar ninguna otra IA. Si su empresa también está en el campo de la IA, el uso de ChatGPT puede poner en peligro el desarrollo futuro de la IA en la empresa.
(3) Consideraciones de privacidad para AI Chatbots
ChatGPT ha estado advirtiendo a los usuarios que no proporcionen ni ingresen información personal confidencial, como nombres o direcciones de correo electrónico. Proporcionar cualquier dato personal a los sistemas que generan IA podría reutilizarse para otros fines, lo que provocaría un uso indebido y daños a la reputación, y podría violar los compromisos de privacidad de una organización con los empleados, clientes y socios.
A pesar de los riesgos asociados con el uso de ChatGPT, y muchos tomadores de decisiones de TI que prefieren desalentar el uso generalizado de esta tecnología emergente, también reconocen el impacto positivo de las aplicaciones generativas de IA en el lugar de trabajo: el 55 % cree que la IA puede ayudar a mejorar la productividad, con un 52 % diciendo que ayuda a la innovación y el 51% dice que mejora la creatividad. Además, cuando se trata de usar herramientas de inteligencia artificial generativa para la defensa de la seguridad cibernética, la mayoría de los encuestados (81 %) también lo aprueban rotundamente.
Se recomienda un enfoque "cauteloso y agresivo"
No solo eso, los datos de investigación de BlackBerry también muestran que aunque el 80 % de los tomadores de decisiones de TI creen que las empresas tienen derecho a controlar las aplicaciones que los empleados usan para fines comerciales, al mismo tiempo el 74 % de ellos cree que esta prohibición es un " desventaja" para las empresas y equipos de oficina. control excesivo".
Con este fin, un número significativo de CIO y CISO encuestados (62 %) indicaron que sus empresas han recurrido a plataformas de gestión unificada de puntos finales (UEM), que brindan un control granular sobre qué aplicaciones pueden conectarse al entorno empresarial. Los datos privados o las aplicaciones se separan y aíslan, al mismo tiempo que se garantiza que se mantenga la seguridad corporativa.
Con base en las ventajas y desventajas anteriores de usar IA generativa como ChatGPT, Shishir Singh, director de tecnología de ciberseguridad en BlackBerry, pidió a las empresas y organizaciones que adopten una actitud "cautelosa y proactiva": "Prohibir el uso de aplicaciones de IA generativa en el lugar de trabajo puede significar que se sofocan muchos intereses comerciales potenciales".
Shishir Singh enfatizó que a medida que la futura plataforma de IA madure y entren en vigencia las regulaciones pertinentes, las empresas pueden adoptar políticas de flexibilidad.La clave es tener las herramientas adecuadas para monitorear las aplicaciones generativas de IA utilizadas en el lugar de trabajo.Monitoreo y gestión de visibilidad.
**Internauta: Debido a que no entiendes la IA, ¿quieres renunciar a la IA? **
Con respecto al informe de investigación proporcionado por BlackBerry, la primera reacción de muchos internautas fue "¿BlackBerry sigue vivo?" Entonces comenzaron las acaloradas discusiones:
▶ "Puedo entender la prohibición de divulgar datos confidenciales en estos chatbots, pero ¿una prohibición general parece demasiado?"
▶ "Si yo estuviera a cargo de la empresa, también prohibiría estos modelos orientados al público. Después de todo, el riesgo de robo de datos es demasiado grande, especialmente cuando se usan complementos y otras cosas".
▶ "Mi empresa también emitió rápidamente una prohibición, pero no es una prohibición completa. Simplemente no puedo ingresar ninguna información de identificación o información confidencial en el aviso. Para el contenido general, la empresa no tiene restricciones".
Además de discutir la prohibición del uso de ChatGPT, algunos internautas creen que la causa principal de la decisión de la empresa no es que la tecnología de inteligencia artificial sea peligrosa, sino que "los humanos no entienden cómo usar las herramientas correctamente":
▶ "Esto tiene sentido, pero no es fundamentalmente que la tecnología sea peligrosa, es que los humanos no entienden cómo usar las herramientas correctamente. Como la mayoría de las veces en nuestra historia, tememos lo que no entendemos, básicamente esto significa que hasta que averiguar cómo hacerlo, solo intentaremos tirarlo, como en este caso con la IA generativa”.
Entonces, ¿su empresa permite que los empleados utilicen herramientas de IA generativa? ¿Qué opinas sobre las empresas que prohíben las herramientas de IA generativa?
Link de referencia:
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
ChatGPT, ¿será "bloqueado" por el 75% de las empresas del mundo? !
Organizar | Zheng Liyuan Listado | CSDN
Después de una caída inicial del 9,7 % en el tráfico en junio, ChatGPT experimentó su segundo mes consecutivo de caída: su tráfico cayó otro 9,6 % en julio, según la última encuesta de la herramienta de análisis de datos de sitios web SimilarWeb.
Y esta semana, BlackBerry lanzó un nuevo estudio:
▶ El 75 % de las organizaciones de todo el mundo están considerando prohibir el uso de ChatGPT y otras aplicaciones generativas de IA en el lugar de trabajo.
▶ El 61 % de las empresas que están implementando o considerando una prohibición de ChatGPT dicen que la desactivación de ChatGPT será a largo plazo o permanente.
**¿Por qué las empresas quieren desactivar ChatGPT? **
Según el blog oficial de BlackBerry, los datos de la investigación provienen de su encuesta a casi 2000 tomadores de decisiones de TI en los Estados Unidos, Canadá, el Reino Unido, Francia, Alemania, los Países Bajos, Japón y Australia.
Los resultados de la encuesta muestran que la prohibición de ChatGPT y la IA generativa está impulsada principalmente por el liderazgo técnico dentro de la empresa, y el director ejecutivo de casi la mitad de las empresas también desempeña un papel de liderazgo:
▶ CIO (Chief Information Officer) / CTO (Chief Technology Officer) / CSO (Chief Security Officer) / TI——72%
▶ CEO (Director General) - 48%
▶ Gerentes de cumplimiento legal - 40%
▶ CFO (Director Financiero) / Finanzas - 36%
▶ RRHH (Recursos Humanos) - 32%
Hay muchas razones para oponerse al uso de ChatGPT en el lugar de trabajo. Alrededor del 67% de los encuestados piensa que los problemas de seguridad y privacidad de datos que ChatGPT puede traer son los mayores riesgos, seguidos por el riesgo de reputación de la empresa, que también es el principal riesgo. razón por la cual el 57% de las personas consideran deshabilitar ChatGPT uno.
De hecho, ya en marzo de este año, BlackBerry consultó a varios expertos en seguridad dentro de la empresa sobre el tema "¿Es seguro para las organizaciones usar ChatGPT?" para revelar a qué debe prestar atención cada organización cuando usa ChatGPT o herramientas similares, en general. hablando, se puede dividir en tres aspectos:
(1) Fuga de datos y problemas de seguridad de los chatbots de IA
Si se ingresa información confidencial de terceros o interna de la empresa en ChatGPT, esta información se convertirá en parte de sus datos de capacitación y se puede compartir con otras personas que hagan preguntas relevantes, lo que provocará una fuga de datos. Cualquier divulgación no autorizada de información confidencial a ChatGPT puede violar las políticas de seguridad corporativas.
(2) Consideraciones legales para el uso de chatbots de IA
Una vez que la seguridad de ChatGPT se ve comprometida, el contenido que debería haber estado protegido por contrato o ley podría verse comprometido y culparse a la organización, lo que afectaría la reputación de la empresa. Además, si se usa ChatGPT para generar código, es difícil definir quién es el propietario de los derechos de autor; el uso de ChatGPT para generar materiales escritos con derechos de autor, como materiales de código abierto autorizados, también causará problemas de derechos de autor e incluso puede hacer que la empresa viole la licencia OSS (Open Source Software).
También importante: los términos de servicio establecen que ChatGPT no se puede usar para desarrollar ninguna otra IA. Si su empresa también está en el campo de la IA, el uso de ChatGPT puede poner en peligro el desarrollo futuro de la IA en la empresa.
(3) Consideraciones de privacidad para AI Chatbots
ChatGPT ha estado advirtiendo a los usuarios que no proporcionen ni ingresen información personal confidencial, como nombres o direcciones de correo electrónico. Proporcionar cualquier dato personal a los sistemas que generan IA podría reutilizarse para otros fines, lo que provocaría un uso indebido y daños a la reputación, y podría violar los compromisos de privacidad de una organización con los empleados, clientes y socios.
A pesar de los riesgos asociados con el uso de ChatGPT, y muchos tomadores de decisiones de TI que prefieren desalentar el uso generalizado de esta tecnología emergente, también reconocen el impacto positivo de las aplicaciones generativas de IA en el lugar de trabajo: el 55 % cree que la IA puede ayudar a mejorar la productividad, con un 52 % diciendo que ayuda a la innovación y el 51% dice que mejora la creatividad. Además, cuando se trata de usar herramientas de inteligencia artificial generativa para la defensa de la seguridad cibernética, la mayoría de los encuestados (81 %) también lo aprueban rotundamente.
Se recomienda un enfoque "cauteloso y agresivo"
No solo eso, los datos de investigación de BlackBerry también muestran que aunque el 80 % de los tomadores de decisiones de TI creen que las empresas tienen derecho a controlar las aplicaciones que los empleados usan para fines comerciales, al mismo tiempo el 74 % de ellos cree que esta prohibición es un " desventaja" para las empresas y equipos de oficina. control excesivo".
Con este fin, un número significativo de CIO y CISO encuestados (62 %) indicaron que sus empresas han recurrido a plataformas de gestión unificada de puntos finales (UEM), que brindan un control granular sobre qué aplicaciones pueden conectarse al entorno empresarial. Los datos privados o las aplicaciones se separan y aíslan, al mismo tiempo que se garantiza que se mantenga la seguridad corporativa.
Con base en las ventajas y desventajas anteriores de usar IA generativa como ChatGPT, Shishir Singh, director de tecnología de ciberseguridad en BlackBerry, pidió a las empresas y organizaciones que adopten una actitud "cautelosa y proactiva": "Prohibir el uso de aplicaciones de IA generativa en el lugar de trabajo puede significar que se sofocan muchos intereses comerciales potenciales".
Shishir Singh enfatizó que a medida que la futura plataforma de IA madure y entren en vigencia las regulaciones pertinentes, las empresas pueden adoptar políticas de flexibilidad.La clave es tener las herramientas adecuadas para monitorear las aplicaciones generativas de IA utilizadas en el lugar de trabajo.Monitoreo y gestión de visibilidad.
**Internauta: Debido a que no entiendes la IA, ¿quieres renunciar a la IA? **
Con respecto al informe de investigación proporcionado por BlackBerry, la primera reacción de muchos internautas fue "¿BlackBerry sigue vivo?" Entonces comenzaron las acaloradas discusiones:
▶ "Puedo entender la prohibición de divulgar datos confidenciales en estos chatbots, pero ¿una prohibición general parece demasiado?"
▶ "Si yo estuviera a cargo de la empresa, también prohibiría estos modelos orientados al público. Después de todo, el riesgo de robo de datos es demasiado grande, especialmente cuando se usan complementos y otras cosas".
▶ "Mi empresa también emitió rápidamente una prohibición, pero no es una prohibición completa. Simplemente no puedo ingresar ninguna información de identificación o información confidencial en el aviso. Para el contenido general, la empresa no tiene restricciones".
Además de discutir la prohibición del uso de ChatGPT, algunos internautas creen que la causa principal de la decisión de la empresa no es que la tecnología de inteligencia artificial sea peligrosa, sino que "los humanos no entienden cómo usar las herramientas correctamente":
▶ "Esto tiene sentido, pero no es fundamentalmente que la tecnología sea peligrosa, es que los humanos no entienden cómo usar las herramientas correctamente. Como la mayoría de las veces en nuestra historia, tememos lo que no entendemos, básicamente esto significa que hasta que averiguar cómo hacerlo, solo intentaremos tirarlo, como en este caso con la IA generativa”.
Entonces, ¿su empresa permite que los empleados utilicen herramientas de IA generativa? ¿Qué opinas sobre las empresas que prohíben las herramientas de IA generativa?
Link de referencia: