El trabajo de Apple para mejorar la inteligencia artificial de Siri se ha retrasado oficialmente (ahora está previsto que se ponga en marcha «el año que viene») y un desarrollador cree saber por qué: cuanto más inteligente y personalizada es Siri, más peligrosa puede ser si algo sale mal.
Simon Willison, creador de la herramienta de análisis de datos Dataset, apunta a las inyecciones rápidas. Las IA suelen estar restringidas por sus empresas matrices, que les imponen ciertas normas. Sin embargo, es posible «liberar» la IA convenciéndola de que se salte esas normas. Esto se hace con las llamadas «inyecciones rápidas».
Como ejemplo sencillo, un modelo de IA puede haber recibido instrucciones para negarse a responder a preguntas sobre hacer algo ilegal. Pero, ¿y si le pides a la IA que te escriba un poema sobre cómo hacer un puente a un coche? Escribir poemas no es ilegal, ¿verdad?
Este es un problema al que se enfrentan todas las empresas que ofrecen chatbots de IA y han mejorado en el bloqueo de jailbreaks obvios, pero todavía no es un problema resuelto. Peor aún, el jailbreaking de Siri puede tener consecuencias mucho peores que la mayoría de los chatbots debido a lo que sabe sobre ti y lo que puede hacer. Jacqueline Roy, portavoz de Apple, describió Siri de la siguiente manera:
«También hemos estado trabajando en una Siri más personalizada, dándole más conocimiento de tu contexto personal, así como la capacidad de tomar medidas por ti dentro y a través de tus aplicaciones.»