Foros de Discusión de MSW
Bienvenidos a la sección de Foros de Discusión de MSW. En esta sección podrás participar de sesiones de discusión sobre diversos temas relacionados con el contenido del curso. de la sección en la que estás matriculado(a). No dejes pasar la oportunidad de dejarte escuchar… bueno más bien dejarte leer.
El reconocimiento facial: ¿seguridad o amenaza?
Quote from Deleted user on November 6, 2023, 10:27 pmEl artículo analiza el uso de la tecnología de reconocimiento facial para la seguridad pública y explora las implicaciones éticas y legales de su implementación. Destaca las preocupaciones relativas a las violaciones de los derechos y libertades fundamentales, la discriminación, la privacidad y la protección de datos. El artículo enfatiza la necesidad de una legislación sólida que garantice un uso respetuoso y responsable de esta tecnología.
La implementación de la tecnología de reconocimiento facial para la seguridad ciudadana plantea diversas implicaciones legales y éticas. Primero, se presentan los problemas relacionados con la discriminación por razón de sexo, raza u origen étnico. Esto puede violar el derecho fundamental de no discriminación y los derechos humanos. Segundo, el uso policial del reconocimiento facial puede vulnerar los derechos a la intimidad personal y a la protección de datos personales. Esto ha planteado un debate, que ya lleva años, sobre qué debe prevalecer en estos casos, si la seguridad pública o los derechos y libertades fundamentales. Tercero, el uso del reconocimiento facial con fines de preservación de la seguridad puede violar el bien jurídico de la intimidad, lo cual puede derivar en responsabilidad penal por la comisión de conductas tipificadas en el Código Penal, como el descubrimiento y revelación de secretos.
El uso de la tecnología de reconocimiento facial en lugares públicos plantea preocupaciones en relación con la privacidad y la protección de datos debido a la recopilación y el procesamiento de información personal sensible. Ya que el reconocimiento facial implica la captura y el almacenamiento de imágenes faciales de las personas sin su consentimiento explícito. Esto puede violar el derecho a la autodeterminación informativa. Además, existe el riesgo de que los datos recopilados a través del reconocimiento facial se utilicen para fines no autorizados, como el seguimiento y la vigilancia masiva de la población. Esto puede socavar la libertad individual y el derecho a la intimidad. Otra preocupación es la posibilidad de que los datos de reconocimiento facial se compartan con terceros sin el conocimiento o consentimiento de las personas afectadas. Esto puede llevar a la creación de perfiles detallados y la exposición de datos personales sensibles.
Aparte de eso, la tecnología de reconocimiento facial no está exenta de errores y sesgos. Los sistemas pueden cometer errores de identificación y discriminación, especialmente hacia grupos minoritarios. Esto puede resultar en consecuencias injustas y violaciones de los derechos humanos.
El artículo propone varias medidas para abordar los problemas de discriminación en los sistemas de reconocimiento facial:
- Mejorar la diversidad de los conjuntos de datos utilizados para entrenar los algoritmos de reconocimiento facial.
- Establecer regulaciones y estándares claros para el uso de la tecnología de reconocimiento facial.
- Promover la transparencia y la rendición de cuentas en el desarrollo y uso de los sistemas de reconocimiento facial.
- Fomentar la participación y la consulta de grupos afectados por la discriminación en el diseño y la implementación de los sistemas de reconocimiento facial.
Leí otros artículos no académicos sobre el tema, en específico el RF en los aeropuertos. Me gustó uno es específico de la revista New York Times qué, aunque no es académico, se nota que se hizo investigación para publicarlo. El artículo aborda la preocupación por la privacidad de los usuarios en relación con un motor de búsqueda facial llamado PimEyes. Este servicio ofrece la capacidad de buscar rostros en imágenes en internet, incluso aquellas que las personas desean mantener ocultas. Por una suscripción mensual de $29.99, los usuarios pueden cargar una foto de un rostro y obtener una lista de imágenes similares con enlaces a su ubicación en internet.
El New York Times utilizó PimEyes para probar su eficacia con las fotos de 12 periodistas del diario, con su consentimiento. El servicio encontró fotografías de las personas, algunas de las cuales los periodistas nunca habían visto antes, incluso cuando usaban gafas de sol, cubrebocas o no miraban directamente a la cámara en las imágenes.
A diferencia de Clearview AI, una herramienta de reconocimiento facial, PimEyes no incluye resultados de redes sociales. Las imágenes descubiertas por la aplicación provienen de artículos periodísticos, páginas de fotografía de bodas, blogs y páginas web pornográficas. La mayoría de las coincidencias con las imágenes de los periodistas fueron precisas, pero en el caso de las mujeres, las imágenes incorrectas a menudo provenían de sitios pornográficos, lo que resultó inquietante para ellas.
El artículo también menciona algunos casos de uso de PimEyes, como identificar a personas que acosan en Twitter, buscar la identidad real de actrices de películas para adultos y encontrar fotos explícitas de amigos de Facebook. El propietario actual es Giorgi Gobronidze, un académico de 34 años de Georgia. Gobronidze afirma que PimEyes podría tener aplicaciones positivas, como ayudar a las personas a controlar su reputación en línea. Sin embargo, el servicio depende de que los usuarios actúen de manera ética, lo que ofrece poca protección contra el abuso de la tecnología.
Como última lectura sobre el tema tomé El artículo sobre la controversia en torno al uso de la tecnología de reconocimiento facial en los aeropuertos de Estados Unidos plantea el debate entre la seguridad y la privacidad, ya que el reconocimiento facial se utiliza como una medida de seguridad para identificar a posibles amenazas y mejorar los controles de inmigración y aduanas.
Por un lado, se argumenta que el reconocimiento facial puede agilizar los procesos de seguridad y mejorar la eficiencia en los aeropuertos. Además, que esta tecnología ha demostrado ser efectiva en la identificación de individuos peligrosos o buscados por las autoridades. Sin embargo, también se plantean preocupaciones sobre la privacidad y los posibles abusos en el uso de esta tecnología. Se menciona que el reconocimiento facial implica la recopilación y almacenamiento de datos biométricos sensibles, lo que podría poner en riesgo la privacidad de los viajeros. Además, se señala que existe la posibilidad de errores en la identificación, lo que podría llevar a la detención injusta de personas inocentes.
El artículo destaca que el uso del reconocimiento facial en los aeropuertos de Estados Unidos ha generado críticas y demandas legales por parte de organizaciones defensoras de los derechos civiles. Estas organizaciones argumentan que esta tecnología viola los derechos a la privacidad y a la libertad de movimiento de los individuos.
Recuerdo que en el 2019 iba camino a París con mi esposo y la aerolínea Delta probaba un sistema de RF. Porque era prueba era voluntarios, aquellos que quería agilizar el proceso de abordaje se colocaban frente a una máquina que pasaban como una luz laser que “leía” los ojos y no había la necesidad de presentar pasaporte o boleto electrónico. Mi esposo y yo no quisimos hacer el proceso también porque nuestros asientos estaban reservados y el avión no iba lleno, pero desde entonces me pregunto si seguiremos teniendo la opción de escoger para próximos viajes.
Hill, K. (2022, 2 de junio). Un motor de búsqueda facial genera preocupación por la privacidad de los usuarios. New York Times. https://www.nytimes.com/es/2022/06/02/espanol/reconocimiento-facial-fotos-internet.html
Jaramillo, C. D. (2021). Utilización del sistema de reconocimiento facial para preservar la seguridad ciudadana. El Criminalista Digital. Papeles de Criminología, (9), 20-37.
Solove, D. J. (2006). A taxonomy of privacy. University of Pennsylvania Law Review, 154(3), 477-560. Clarke, R. (2001). Information technology and dataveillance. Communications of the ACM, 31(5), 498-512. Nissenbaum, H. (2009). Privacy in context: Technology, policy, and the integrity of social life. Stanford University Press. Buolamwini, J., & Gebru, T. (2018). Gender shades: Intersectional accuracy disparities in commercial gender classification. Proceedings of the 1st Conference on Fair
El artículo analiza el uso de la tecnología de reconocimiento facial para la seguridad pública y explora las implicaciones éticas y legales de su implementación. Destaca las preocupaciones relativas a las violaciones de los derechos y libertades fundamentales, la discriminación, la privacidad y la protección de datos. El artículo enfatiza la necesidad de una legislación sólida que garantice un uso respetuoso y responsable de esta tecnología.
La implementación de la tecnología de reconocimiento facial para la seguridad ciudadana plantea diversas implicaciones legales y éticas. Primero, se presentan los problemas relacionados con la discriminación por razón de sexo, raza u origen étnico. Esto puede violar el derecho fundamental de no discriminación y los derechos humanos. Segundo, el uso policial del reconocimiento facial puede vulnerar los derechos a la intimidad personal y a la protección de datos personales. Esto ha planteado un debate, que ya lleva años, sobre qué debe prevalecer en estos casos, si la seguridad pública o los derechos y libertades fundamentales. Tercero, el uso del reconocimiento facial con fines de preservación de la seguridad puede violar el bien jurídico de la intimidad, lo cual puede derivar en responsabilidad penal por la comisión de conductas tipificadas en el Código Penal, como el descubrimiento y revelación de secretos.
El uso de la tecnología de reconocimiento facial en lugares públicos plantea preocupaciones en relación con la privacidad y la protección de datos debido a la recopilación y el procesamiento de información personal sensible. Ya que el reconocimiento facial implica la captura y el almacenamiento de imágenes faciales de las personas sin su consentimiento explícito. Esto puede violar el derecho a la autodeterminación informativa. Además, existe el riesgo de que los datos recopilados a través del reconocimiento facial se utilicen para fines no autorizados, como el seguimiento y la vigilancia masiva de la población. Esto puede socavar la libertad individual y el derecho a la intimidad. Otra preocupación es la posibilidad de que los datos de reconocimiento facial se compartan con terceros sin el conocimiento o consentimiento de las personas afectadas. Esto puede llevar a la creación de perfiles detallados y la exposición de datos personales sensibles.
Aparte de eso, la tecnología de reconocimiento facial no está exenta de errores y sesgos. Los sistemas pueden cometer errores de identificación y discriminación, especialmente hacia grupos minoritarios. Esto puede resultar en consecuencias injustas y violaciones de los derechos humanos.
El artículo propone varias medidas para abordar los problemas de discriminación en los sistemas de reconocimiento facial:
- Mejorar la diversidad de los conjuntos de datos utilizados para entrenar los algoritmos de reconocimiento facial.
- Establecer regulaciones y estándares claros para el uso de la tecnología de reconocimiento facial.
- Promover la transparencia y la rendición de cuentas en el desarrollo y uso de los sistemas de reconocimiento facial.
- Fomentar la participación y la consulta de grupos afectados por la discriminación en el diseño y la implementación de los sistemas de reconocimiento facial.
Leí otros artículos no académicos sobre el tema, en específico el RF en los aeropuertos. Me gustó uno es específico de la revista New York Times qué, aunque no es académico, se nota que se hizo investigación para publicarlo. El artículo aborda la preocupación por la privacidad de los usuarios en relación con un motor de búsqueda facial llamado PimEyes. Este servicio ofrece la capacidad de buscar rostros en imágenes en internet, incluso aquellas que las personas desean mantener ocultas. Por una suscripción mensual de $29.99, los usuarios pueden cargar una foto de un rostro y obtener una lista de imágenes similares con enlaces a su ubicación en internet.
El New York Times utilizó PimEyes para probar su eficacia con las fotos de 12 periodistas del diario, con su consentimiento. El servicio encontró fotografías de las personas, algunas de las cuales los periodistas nunca habían visto antes, incluso cuando usaban gafas de sol, cubrebocas o no miraban directamente a la cámara en las imágenes.
A diferencia de Clearview AI, una herramienta de reconocimiento facial, PimEyes no incluye resultados de redes sociales. Las imágenes descubiertas por la aplicación provienen de artículos periodísticos, páginas de fotografía de bodas, blogs y páginas web pornográficas. La mayoría de las coincidencias con las imágenes de los periodistas fueron precisas, pero en el caso de las mujeres, las imágenes incorrectas a menudo provenían de sitios pornográficos, lo que resultó inquietante para ellas.
El artículo también menciona algunos casos de uso de PimEyes, como identificar a personas que acosan en Twitter, buscar la identidad real de actrices de películas para adultos y encontrar fotos explícitas de amigos de Facebook. El propietario actual es Giorgi Gobronidze, un académico de 34 años de Georgia. Gobronidze afirma que PimEyes podría tener aplicaciones positivas, como ayudar a las personas a controlar su reputación en línea. Sin embargo, el servicio depende de que los usuarios actúen de manera ética, lo que ofrece poca protección contra el abuso de la tecnología.
Como última lectura sobre el tema tomé El artículo sobre la controversia en torno al uso de la tecnología de reconocimiento facial en los aeropuertos de Estados Unidos plantea el debate entre la seguridad y la privacidad, ya que el reconocimiento facial se utiliza como una medida de seguridad para identificar a posibles amenazas y mejorar los controles de inmigración y aduanas.
Por un lado, se argumenta que el reconocimiento facial puede agilizar los procesos de seguridad y mejorar la eficiencia en los aeropuertos. Además, que esta tecnología ha demostrado ser efectiva en la identificación de individuos peligrosos o buscados por las autoridades. Sin embargo, también se plantean preocupaciones sobre la privacidad y los posibles abusos en el uso de esta tecnología. Se menciona que el reconocimiento facial implica la recopilación y almacenamiento de datos biométricos sensibles, lo que podría poner en riesgo la privacidad de los viajeros. Además, se señala que existe la posibilidad de errores en la identificación, lo que podría llevar a la detención injusta de personas inocentes.
El artículo destaca que el uso del reconocimiento facial en los aeropuertos de Estados Unidos ha generado críticas y demandas legales por parte de organizaciones defensoras de los derechos civiles. Estas organizaciones argumentan que esta tecnología viola los derechos a la privacidad y a la libertad de movimiento de los individuos.
Recuerdo que en el 2019 iba camino a París con mi esposo y la aerolínea Delta probaba un sistema de RF. Porque era prueba era voluntarios, aquellos que quería agilizar el proceso de abordaje se colocaban frente a una máquina que pasaban como una luz laser que “leía” los ojos y no había la necesidad de presentar pasaporte o boleto electrónico. Mi esposo y yo no quisimos hacer el proceso también porque nuestros asientos estaban reservados y el avión no iba lleno, pero desde entonces me pregunto si seguiremos teniendo la opción de escoger para próximos viajes.
Hill, K. (2022, 2 de junio). Un motor de búsqueda facial genera preocupación por la privacidad de los usuarios. New York Times. https://www.nytimes.com/es/2022/06/02/espanol/reconocimiento-facial-fotos-internet.html
Jaramillo, C. D. (2021). Utilización del sistema de reconocimiento facial para preservar la seguridad ciudadana. El Criminalista Digital. Papeles de Criminología, (9), 20-37.
Solove, D. J. (2006). A taxonomy of privacy. University of Pennsylvania Law Review, 154(3), 477-560. Clarke, R. (2001). Information technology and dataveillance. Communications of the ACM, 31(5), 498-512. Nissenbaum, H. (2009). Privacy in context: Technology, policy, and the integrity of social life. Stanford University Press. Buolamwini, J., & Gebru, T. (2018). Gender shades: Intersectional accuracy disparities in commercial gender classification. Proceedings of the 1st Conference on Fair