Apple ofrece un acuerdo de 95 millones de dólares por la violación de la privacidad de Siri

Apple ofrece un acuerdo de 95 millones de dólares por la violación de la privacidad de Siri

Apple acordó pagar 95 millones de dólares para resolver una demanda colectiva en Estados Unidos que alega que su asistente Siri grabó conversaciones privadas y las compartió con terceros.

La demanda propuesta alega que los datos de audio se divulgaron sin el consentimiento de los usuarios a una red de comercializadores y anunciantes externos.

Los usuarios se quejaron de haber sido dirigidos en sus dispositivos Apple con anuncios de productos sobre temas delicados y muy específicos discutidos en conversaciones privadas, cuando Siri se activaba por accidente.

El caso, presentado por Fumiko López, John Troy Pappas y David Yacubian, en nombre de otros en situación similar, acusado Apple por violaciones del estatuto federal de escuchas telefónicas y el estatuto de invasión de la privacidad de California.

Acuerdo de conciliación

De acuerdo a documentos judicialesApple se está preparando para crear un fondo de no reversión de 95 millones de dólares para cubrir los pagos a los miembros del grupo, los honorarios de los abogados, las indemnizaciones para los representantes del grupo y los costos administrativos.

El acuerdo se aplica a todos los propietarios actuales o anteriores de dispositivos compatibles con Siri, como iPhones, iPads y Macs, con sede en EE. UU., cuyas comunicaciones se obtuvieron o compartieron sin consentimiento debido a activaciones no intencionadas de Siri entre el 17 de septiembre de 2014 y el 31 de diciembre de 2024. .

Los miembros del grupo pueden reclamar hasta $20 por dispositivo habilitado para Siri para hasta cinco dispositivos, mientras que los demandantes pueden recibir hasta $10,000 por sus esfuerzos.

La audiencia de aprobación preliminar está prevista para el 14 de febrero de 2025. De avanzar el caso, el plazo para presentar reclamaciones será de 135 días, el 29 de junio de 2025.

Además del aspecto monetario del acuerdo, Apple también debe eliminar permanentemente todas las grabaciones de audio de Siri obtenidas en violación de dichas leyes dentro de los seis meses posteriores a la fecha de entrada en vigor del acuerdo.

En el futuro, Apple también debería proporcionar información clara y fácilmente comprensible sobre cómo los usuarios pueden administrar la configuración de Siri para proteger sus datos contra la divulgación involuntaria.

Es importante señalar que se trata de una propuesta de reglamento. Dependiendo de las objeciones presentadas y de cómo las trate el tribunal, el formulario final puede contener condiciones adaptadas o incluso rechazadas.

BleepingComputer se ha puesto en contacto con Apple para solicitar un comentario sobre este asunto y actualizaremos este artículo tan pronto como tengamos noticias.

Pon a dormir a Siri

Siri es una parte integral del software de Apple y los usuarios pueden tomar medidas para ajustar su sensibilidad o restringir su uso en ciertas aplicaciones.

El primer paso sería desactivar la activación por voz “Hey Siri” a través de la configuración de tu dispositivo desactivando el botón “Escucha Hola Siri’ opción. En el Apple Watch, ‘levántate para hablar‘ es una configuración igualmente arriesgada de habilitar.

Para aplicaciones que manejan datos confidenciales o que suelen estar activas en el dispositivo, vaya a ‘Configuración > Siri y Búsqueda‘y desactivar’Usar con Siri’ para ellos. También deshabilitar ‘Sugerencias en la pantalla de bloqueo‘ Y ‘Sugerencias de búsqueda.’

Finalmente, es útil eliminar periódicamente Siri y el historial de dictado mediante ‘Configuración > Siri y Búsqueda > Historial Siri y Dictado‘ para borrar datos potencialmente confidenciales.