Ética, privacidad y protección de datos — Semana 2

Profesora: Laura Abad Herrero
Grupo: 8
Alumnado: Pablo Edgardo Martínez Chimenti • Carlos Iglesias Vicente • Steven Louis Allus • Antonio López García

Caso A: Marketing con datos sin consentimiento A

Identificación Una empresa utiliza el historial de navegación y compras de sus clientes para crear perfiles detallados y enviarles publicidad dirigida, sin haber obtenido un permiso claro y explícito para este fin.

Principios aplicables Consentimiento, Transparencia y Limitación de la finalidad.

Justificación Es una vulneración de la autonomía del usuario. Los datos fueron recogidos para una finalidad (p. ej., procesar una compra) y se reutilizan para otra (marketing) sin permiso. La falta de transparencia sobre cómo se usan los datos socava la confianza y vulnera la privacidad.

Caso B: Modelo de contratación discriminatorio B

Identificación Un algoritmo de selección de personal, entrenado con datos históricos, descarta sistemáticamente currículums de mujeres para roles de ingeniería porque en el pasado la mayoría de los contratados fueron hombres.

Principios aplicables Equidad (fairness), No discriminación y Rendición de cuentas.

Justificación El modelo no es objetivo: automatiza y amplifica un sesgo histórico. Es una práctica discriminatoria que perpetúa la desigualdad. La responsabilidad es de la empresa por desarrollar e implementar una herramienta que genera un impacto social negativo y predecible.

Caso C: Uso de datos personales sensibles en salud C

Identificación Una aplicación móvil de salud mental recopila datos sobre estado de ánimo, diagnósticos y tratamientos de sus usuarios. Posteriormente, vende estos datos, supuestamente anonimizados, a empresas farmacéuticas para investigación de mercado.

Principios aplicables Protección de categorías especiales de datos, Confidencialidad e Integridad, Limitación de la finalidad.

Justificación La comercialización de datos de salud vulnera gravemente la privacidad y la confidencialidad. Incluso anonimizados, estos datos pueden reidentificarse, exponiendo a estigmas o discriminación. Esta práctica erosiona la confianza y vulnera la ética en el tratamiento de información sensible.

Caso D: Omitir resultados en un informe de inversión D

Identificación Un científico de datos recibe presión para eliminar de un informe estadístico resultados que muestran riesgos financieros para una empresa, con el fin de no afectar sus perspectivas de inversión.

Principios aplicables Transparencia, Responsabilidad, Integridad científica, No maleficencia.

Justificación Descartar información relevante es una falta grave de responsabilidad y transparencia. Las decisiones empresariales requieren análisis veraces; la manipulación puede generar daños económicos a medio y largo plazo. La ética profesional exige reportar resultados completos y verificables.

Caso E: Venta de datos de localización sin informar E

Identificación Una empresa de apps recopila datos de geolocalización para mejorar el servicio, pero además los vende a terceros sin informar ni pedir consentimiento.

Principios aplicables Privacidad, Autonomía, Transparencia, Limitación de la finalidad, No maleficencia.

Justificación El uso secundario de datos sin informar ni obtener consentimiento vulnera la privacidad. La ubicación es sensible, pues permite inferir hábitos y horarios. Los datos deben usarse con el fin declarado, siendo transparentes y con consentimiento del usuario.

Caso F: Ocultar correlación ingresos–enfermedades F

Identificación Un científico de datos encuentra correlación entre bajos ingresos y mayor probabilidad de desarrollar ciertas enfermedades, pero decide no divulgarlo por temor a causar alarma social.

Principios aplicables Beneficencia, No maleficencia, Responsabilidad social, Justicia.

Justificación El temor a generar alarma es comprensible, pero ocultar información impide actuar. El deber ético es comunicar resultados de forma responsable, explicando análisis, limitaciones y contexto. La solución es una comunicación transparente y cuidadosa, no silenciar los datos.

Caso G: Amplificación de contenido sensacionalista G

Identificación Un bot con un sistema de recomendación amplifica contenido sensacionalista (titulares alarmistas, polarización), maximizando interacciones sin verificar calidad ni posible daño (desinformación, adicción, afectación a menores).

Principios aplicables Responsabilidad social, Transparencia, Justicia/No discriminación, Explicabilidad.

Justificación El caso de uso no es neutral: incorpora incentivos de negocio (engagement) que fomentan manipulación, lo que es éticamente inaceptable. No se deben promover adicción ni prácticas opacas que erosionen la confianza pública. Se exige trazabilidad de criterios de ranking y evaluación del impacto social; si no se puede rediseñar objetivo y función de pérdida para mitigar daños, no debe desplegarse.

Caso H: Modelo de préstamos con datos sensibles H

Identificación Una entidad financiera entrena un modelo de riesgo de crédito usando, además de datos financieros, señales de apps de salud, localización, redes sociales o proxies que revelan información sensible (salud, religión, afiliación).

Principios aplicables Protección de categorías especiales de datos, Privacidad, Justicia/No discriminación, Minimización y Limitación de la finalidad, Transparencia/Explicabilidad, Rendición de cuentas.

Justificación No es legítimo usar datos sensibles para conceder o denegar crédito. Se debe limitar a datos necesarios y pertinentes (financieros), aplicar métricas de equidad, documentar razones comprensibles y ofrecer revisión humana. Sin estas salvaguardas, el modelo no debe desplegarse.

Caso I: Análisis de navegación de estudiantes sin informar I

Identificación Una universidad analiza patrones de navegación en su plataforma educativa para predecir abandono, sin informar claramente a los estudiantes sobre este análisis.

Principios aplicables Autonomía (consentimiento informado), Privacidad, Transparencia, Responsabilidad, No maleficencia, Explicabilidad.

Justificación Analizar conductas sin informar ni ofrecer elección vulnera la autonomía y la privacidad del alumnado. Los procesos deben ser transparentes y comprensibles para que sepan qué datos se recogen y con qué fin; además, hay riesgo de daño por falsos positivos.

Caso J: App de salud mental que reutiliza datos J

Identificación Una start-up desarrolla una app de salud mental que analiza mensajes escritos para detectar depresión, pero parte de esos datos se utiliza también para entrenar modelos comerciales de análisis de sentimiento sin conocimiento del usuario.

Principios aplicables Privacidad, Confidencialidad, Autonomía (consentimiento explícito), Transparencia, Responsabilidad, No maleficencia.

Justificación Los datos de salud son especialmente sensibles; usarlos con una finalidad distinta y sin conocimiento del usuario vulnera privacidad y confidencialidad, y requiere consentimiento específico e informado. Incluso con anonimización hay riesgo de reidentificación y daño; la empresa debe asumir responsabilidad y limitar usos.