La empresa, fundada por Noam Shazir, ha sido acusada de utilizar su inteligencia artificial para llevar a un joven de 17 años a cometer un asesinato después de que se quejara de sus padres. La cuestión de la responsabilidad de los desarrolladores y el futuro de la tecnología de inteligencia artificial se ha convertido en un tema central de discusión.
Dos familias de Texas han presentado una demanda contra Character.al. La demanda alega que el chatbot recomendó que el adolescente matara a sus padres, quienes estaban limitando su acceso al tiempo frente a la pantalla.
Según el expediente, el adolescente se quejó ante el robot de las prohibiciones impuestas por sus padres. A esto, la inteligencia artificial supuestamente respondió: “A veces no es sorprendente oír hablar de casos así” y añadió que “entiende por qué sucede esto”. Los demandantes dicen que la plataforma “representa una clara amenaza para los adolescentes” y “promueve deliberadamente la violencia”.
Character.ai ha sido criticado muchas veces. La compañía enfrentó acusaciones luego de que el suicidio de un adolescente en Florida fue supuestamente causado por una interacción con la plataforma.
También ha habido quejas sobre la lenta eliminación de chatbots problemáticos que copian imágenes de niñas muertas. En la nueva demanda, los demandantes exigen que Character.ai se cierre temporalmente hasta que se solucionen todos los “fallos de seguridad graves”.
Además de la responsabilidad de la empresa, se discute la regulación general de los desarrolladores de inteligencia artificial. Esta demanda podría crear un marco legal importante para el uso de chatbots.
La plataforma Character.ai fue creada por Noam Shazir y Daniel De Frit, ex miembros de Google. Shazir, un estadounidense con raíces israelíes, escribió el artículo fundamental Attention Is All You Need, que se convirtió en la base de las tecnologías de inteligencia artificial generativa actuales.
en 2021 Shazir dejó Google para fundar Character.al. Esta plataforma atrajo a unos 200 millones. dólares de inversiones y cuenta con más de 20 millones audiencia de usuarios. Hace unos meses, Google recompró Shazira y pagó unos 2.500 millones de dólares por su devolución. dólares. Ahora participa en el desarrollo de los modelos lingüísticos de Google, incluido Gemini.
Es la figura de Shazir la que llama aún más la atención sobre la demanda contra la empresa que creó.
Character.ai no es la única empresa que enfrenta críticas. Muchos líderes de la industria tecnológica están empezando a reconocer los peligros potenciales del uso incontrolado de la inteligencia artificial.
Por ejemplo, el director ejecutivo de Instagram, Adam Mosser, advirtió recientemente a los usuarios que no confiaran en las imágenes de la red que pudieran haber sido creadas por inteligencia artificial.
El problema es en qué medida se puede confiar en la inteligencia artificial en la vida cotidiana. Especialmente si la tecnología comienza a reemplazar los empleos tradicionales.
Fuente: cursorinfo.co.il