En el artículo anterior, titulado “Servicios de Telecomunicaciones, su Situación Económica y Jurídica en América Latina en el sector” referente a ANTEL y su futuro, expresábamos que se debería abordar, analizar la Ley de Transparencia de Algoritmos de Nueva York, la ley llamada “Ley Trump” de este año, y podríamos visualizar, la punta de la madeja.
Me trajo a la memoria, mi visita al pueblo cubano , en plena época de la llamada caída del muro Socialista, y la aplicación de la ley Helms-Burton, nos explicaban como era el criminal bloqueo a su pueblo, lo sintetizaban con una frase “primero hicieron la trampa, luego crearon la ley”.
Parece repetirse la historia.
Estamos ante una“segunda revolución industrial”, la revolución digital es parte de todas las actividades humanas. La cibernética adopta un protagonismo sin precedentes, el”software” hoy toma decisiones sin intervención humana.
Existen programas que deciden, bajo determinados criterios, que en casos no necesariamente son “equitativos”, y se tornan, en ocasiones, arbitrarios, incurriendo en discriminación por razones de género, sexo, edad y/o nacionalidad.
Para ello la Ley de Transparencia de Algoritmos de New York se ha planteado “regular” aquellos programas que puedan incurrir en una discriminación algorítmica, por lo que se postula una responsabilidad algorítmica para que los ciudadanos conozcan cómo se gestionan sus datos y para que los desarrolladores opten por métodos preventivos que eviten sesgos en la toma de decisiones automáticas que puedan afectar derechos fundamentales.
Un algoritmo es una serie de instrucciones que se llevan a cabo para que todos los programas que ejecutamos en la red funcionen. Llamado el derecho adjetivo, termino jurídico para entender desde el ámbito de las leyes.
Pero éstos no siempre son neutrales.
Una definición más técnica traída al ámbito tecnológico es la que da el profesor de la Facultad de Informática de la Universidad Complutense Ricardo Peña Marí, autor del libro ‘De Euclides a Java, la historia de los algoritmos y de los lenguajes de programación ‘(Editorial Nívola), es “conjunto de reglas que, aplicada sistemáticamente a unos datos de entrada apropiados, resuelven un problema en un numero finito de pasos elementales”.
Imaginemos qué pasaría si Comcast, Verizon, AT&T o cualquier otro “proveedor de Servicios de Internet” tuviera la autoridad para decidir qué sitios web podemos visitar o qué programa de videollamada debemos usar para comunicarnos con amigos o familiares.
Imaginemos que pudieran manipular la velocidad en que se cargan los sitios web, dando preferencia a aquellos sitios que paguen extra para estar en un “fast lane” o carril rápido de Internet.
Imaginemos que pudieran impedirnos ver videos publicados en sitios que no sean YouTube, o prohibirnos el uso de Skype.
Estos proveedores nos brindan la conexión a Internet, pero no deberían poder controlar cómo usamos la red. Esta característica central de Internet de ser una red libre y abierta se llama “neutralidad de Internet”.
La reglamentación actual de internet, puesta en práctica recientemente por el gobierno de Trump, elimina la neutralidad de Internet.
Con la eclosión digital, cada vez más sectores han optado por “automatizar” o digitalizar determinadas funciones, desde el rubro de las legaltech, o tecnología legal.
Desde gestionar las reclamaciones de los clientes, a cobrar en forma automática en las grandes superficies (supermercados), hasta el ámbito público, donde se designan una cantidad de policías para cada barrio o se dispone una determinada fianza, o bien se establece el sistema de pensiones en el área de salud o evaluación de rendimiento docente en el sector educativo.
Hay algoritmos que incluso definen sentencias judiciales a partir de los “factores de riesgo”.
Lo más delicado es que toda esa ingeniería se realiza a partir de criterios de edad, raza, religión u orientación sexual. Un tópico verdaderamente controvertido, puesto que además de realizarse en total desconocimiento de la población, aquellas “decisiones” no son necesariamente equitativas.
Para eso, intercede la fuerza de la ley, de manera algo desprolija, pero es lo que se pretende en el proyecto de ley del Estado de Nueva York, EE.UU.
¿De qué se trata?
Uno de los principales objetivos de las políticas del presidente Donald Trump, tal como declaró el ex asesor de la Casa Blanca , es “desmontar el Estado Administrativo”. La Comisión Federal de Comunicaciones estadounidense, (FCC), se ha ocupado de ir eliminando las normas que regulan el sistema de medios del país, entre ellas, las protecciones a la neutralidad de Internet establecidas por el gobierno del ex presidente Obama.
Se estableció un nuevo Marco Regulatorio, paradójicamente llamado “Restauración de la libertad de Internet”, que parece tomado de un libro de Carlo Collodi (Pinocho) y que permite a los grandes proveedores hacer exactamente lo contrario. Suena conocido aquello de “cómo te digo, una cosa, te digo la otra”
Se pretende auditar las decisiones de las máquinas para evitar una “discriminación algorítmica.” ¿Quiénes auditan? -Humanos-, para bien y para mal.
Invocando principios fundamentales como transparencia, acceso a la información[1] y responsabilidad empresarial. La subjetividad es el obstáculo más complejo, más no el único.
Un problema: la mayoría de los tenedores de las bases de datos que serían objeto de supervisión legal para corroborar que los algoritmos no realicen discriminación o preferencia alguna no querrán ceder el Código Fuente de sus algoritmos, es decir, como se mencionó, no querrán develar su fórmula secreta que, además de ser una reacción razonable, cuentan con incontables candados legales y garantías que salvaguardan sus secretos, algo conocido como Seguridad Jurídica.
Otro problema: la protección de datos personales. En caso de legislar el criterio y alcance de algoritmos que deciden automáticamente determinados tópicos que puede discriminar a sectores de la sociedad, se debe auditar datos sensibles de cada ciudadano, y quién lo haga debería realizar un tratamiento que importa un consentimiento expreso y confidencialidad sin precedentes, entre otras seguridades establecidas por ley.
No existe garantías de transparencia y prolijidad en la gestión de los datos.
Inmediatamente después de que la Comisión Federal de Comunicaciones del presidente Barack Obama aprobara las Normas de Neutralidad de Internet en 2015, la industria de las telecomunicaciones presentó una demanda ante un Tribunal Federal para deshacerse de ellas.
El Tribunal de Apelaciones de Washington D.C. finalmente ratificó las normas. Esa importante decisión incluyó un fallo en disidencia escrito por el juez Brett Kavanaugh, el hombre recientemente nominado por Trump para la Corte Suprema de Estados Unidos.
El tema cobra particular trascendencia en vísperas de la promulgación y vigencia oficial del Nuevo Reglamento General de Protección de Datos (NRGPD) para todos los Estados miembro de la Unión Europea.
Que al respecto en su considerando 15 señala que “a fin de evitar que haya un grave riesgo de eludir, la protección de las personas físicas debe ser tecnológicamente neutra y no debe depender de las técnicas utilizadas. La protección de las personas físicas debe aplicarse al tratamiento automatizado de datos personales, así como a su tratamiento manual, cuando los datos personales figuren en un fichero o estén destinados a ser incluidos en él”.
Adicionalmente, en el considerando 63 estipula “(…) Todo interesado debe, por tanto, tener el derecho a conocer y a que se le comuniquen, en particular, los fines para los que se tratan los datos personales, su plazo de tratamiento, sus destinatarios, la lógica implícita en todo tratamiento automático de datos personales y, por lo menos cuando se base en la elaboración de perfiles, las consecuencias de dicho tratamiento (…)”.
Concluyendo en el apartado 71 del considerando, que “(…) las decisiones automatizadas y la elaboración de perfiles sobre la base de categorías particulares de datos personales únicamente deben permitirse en condiciones específicas”.
El frecuente defecto de la normativa legal en el ámbito de nuevas tecnologías informáticas es la carencia de recursos técnicos. Es decir, por lo general cuando se establece alguna determinación legal, no se contempla el medio pragmático-técnico para ejecutar efectivamente aquel extremo. La solución para el legislador es, converger conocimientos técnicos suficientes y necesarios para normar sobre alguna temática, para que, por el principio de congruencia, la ley sea plenamente aplicable.
Se pretende establecer entonces, una “responsabilidad algorítmica” en los desarrolladores de determinados programas que a través de aprendizaje automático (machine learning[2]) debiesen contemplar metodologías preventivas para evitar sesgos en la toma de decisiones automáticas que puedan afectar derechos fundamentales, evitar que exista discriminación pre-programada y auto-ejecutada.
Un buen parámetro es revisar lo vertido en la conferencia Neutral Information Processing Systems, una de las grandes reuniones internacionales sobre algoritmos y procesamiento de información.
No es para nada alentador poder inferir entonces, que, los algoritmos que “gobiernan” nuestras vidas son tan injustos como nosotros mismos.
Las personas en todo el mundo siguen siendo demasiado inconscientes de estas formas de evitar que los algoritmos afecten sus vidas.
Mayor educación digital y una mayor conciencia de que los datos personales no pueden vagar libremente por Internet son estrategias para aminorar el impacto que tienen los algoritmos en nuestra vida cotidiana.
En este mundo cada día más complejo, las personas están buscando fuentes alternativas de información. Se están volviendo cada día más hábiles para buscar las fuentes de noticias que desean, en el momento y en la forma que desean, ya sea en sitios web, a través de podcasts de audio y video o en plataformas móviles.
Critican, comparten, citan fragmentos y republican el contenido que aprecian, agregando sus puntos de vista; evitan las fuentes de noticias tradicionales, al tiempo que construyen sus propias comunidades de información confiable en Internet.
Sin embargo, las grandes empresas proveedoras de servicios de Banda Ancha están tratando de controlar Internet, restringir el flujo libre de información y restaurar su histórico papel de árbitro con fines de lucro en torno a lo del “loro” ver, leer/hablar u oír.
Preservar la neutralidad de Internet implica frustrar a los Oligarcas, a las Empresas Multinacionales de la era digital y mantener una Internet libre y abierta.
[1] El acceso a la información en el ciberespacio ha sido reconocido a través de una resolución de la Organización de las Naciones Unidas (ONU) para la “promoción, protección y el disfrute de los derechos humanos en Internet ”.
[2]Es el subcampo de las ciencias de la computación y una rama de la inteligencia artificial cuyo objetivo es desarrollar técnicas que permitan a las computadoras aprender. De forma más concreta, se trata de crear programas capaces de generalizar comportamientos a partir de una información suministrada en forma de ejemplos. Es, por lo tanto, un proceso de inducción del conocimiento.
** Basado en artículo de prensa:
www.democracynow.org/2018/7/19/confront_digital_oligarchs_and_defend_net
** Artículo: ese algoritmo discriminador por Félix Fabián Espinoza Valencia –Magistrado ESPAÑA
Comments