Inteligencia artificial El Salto 53

Inteligencia artificial
La Unión Europea abraza la ley del algoritmo más fuerte

La inteligencia artificial ya tiene quien la regule. El Parlamento Europeo ha aprobado una ley que no mitiga las preocupaciones por los efectos que puede tener el modelaje algoritmo sobre los derechos fundamentales.
17 mar 2024 05:58

Solo unas horas después de sacar adelante la primera ley sobre economía digital, la Parlamento Europeo aprobaba la primera Directiva sobre Inteligencia Artificial. Con 523 votos a favor, 46 en contra y 49 abstenciones, la norma supone un cambio de paradigma respecto al escenario de completa desregulación anterior. La ley votada el 13 de marzo entrará en vigor en mayo y su implementación por parte de los Gobiernos nacionales se espera para 2026. Esta ratificación no es un simple trámite, sino que los distintos Estados miembro pueden establecer sus propios límites y recortes en las obligaciones que dibuja el tratado.

En la presentación del texto Brando Benifei (S&D, al que pertenece el PSOE) celebró como una “jornada histórica” la luz verde a una norma que comenzó a estudiarse antes de la llegada de Chat GPT —el juguete algorítmico más conocido de los últimos tiempos— y que se aplicará sobre productos que aún no han sido concebidos. Los principales partidos europeos tenían un objetivo: ser los primeros en regular la inteligencia artificial. Se trata de encontrar una serie de normativas que influyan sobre las predicciones, recomendaciones o decisiones que ya son capaces de realizar las máquinas a través de la acumulación de datos.

El hecho de que no exista una normativa anterior, y que no haya otra institución internacional que haya implementado todavía una directiva de este tipo, invita a pensar que, a pesar de sus limitaciones, la propia existencia de la Ley IA es una buena noticia. Como señala Sofía Scasserra, investigadora Asociada al Transnational Institute, este sector ha crecido en un contexto de monopolización del mercado en una internet desregulada. Los primeros impactos negativos de la digitalización apenas fueron atendidos por los Estados nacionales, que se situaban de espaldas a unas prácticas “por conveniencia o por desconocimiento”, resume Scasserra.

Entre los puntos negativos de la ley está que se otorga a las empresas la capacidad de definir qué aplicación de la IA será considerada de alto riesgo y cuál no

Pero, a medida que ha crecido el negocio, el poder, y el impacto en la vida cotidiana de la gente de los productos diseñados por estas empresas, se ha llegado a un consenso —al menos en la Unión Europea— para encauzar las prácticas de las grandes del sector, las llamadas big tech, dentro del marco de normas de la competencia. 

La norma establece cuatro niveles de riesgo, en el que se basará la aprobación de programas. Del inaceptable, que prohíbe la aprobación de sistemas de crédito social, de vigilancia masiva o amenazas a la seguridad al “alto riesgo” o al riesgo mínimo de usos “inocuos”. Pero la Ley deja fuera las competencias de los Estados miembros en materia de seguridad nacional, con lo cual abre diversas vías para puertas traseras que pueden aumentar los riesgos derivados de su uso. Pese a que reconocen aspectos que mejoran la situación actual, partidos como Podemos (dentro de The Left en el Parlamento Europeo) han votado en contra. “Tal y como se ha aprobado”, indican fuentes de la formación morada, la ley “antepone los intereses de las grandes tecnológicas a la protección de la ciudadanía y sus derechos fundamentales, especialmente la privacidad y la no discriminación”. 

El poder del valle de silicio

El proceso de preparación de la norma ha estado definido por el trabajo de zapa de los lobbies de la inteligencia artificial. Un informe publicado el 11 de marzo por Corporate Europe Observatory (CEO) ha detallado el intenso trabajo llevado a cabo por los gigantes del sector y por dos proyectos de raíz europea, la francesa Mistral AI y la alemana Aleph Alpha, para orientar la directiva a sus intereses. 

En 2023, último año con registros completos, el 78% de las reuniones de eurodiputados para abordar las problemáticas de la inteligencia artificial fueron con representantes de compañías. Google y Microsoft, especialmente, pero también Spotify, Uber, Amazon o Netflix se han interesado por contactar con distintos parlamentarios para trasladarles sus preocupaciones. 

Tecnología
Los nuevos ropajes del capitalismo (Parte I)

Evgeny Morozov realiza en este texto, publicado en dos entregas, una extensa e implacable crítica del libro de Shoshana Zuboff Surveillance Capitalism, el intento más reciente por conceptualizar el régimen social imperante. El intelectual bielorruso exige fijarse en las lógicas del capitalismo más que en las de la vigilancia.


Las negociaciones han estado definidas por dos posiciones, una, a favor de una regulación laxa, basada en que una norma con demasiados controles podía poner “en peligro la competitividad y la soberanía tecnológica de Europa” —en palabras de una carta abierta firmada por 150 empresas—. La otra, basada en el hecho de que la falta de regulación puede incrementar las dificultades asociadas al uso de la inteligencia artificial. Un amplio abanico de problemas que va desde los problemas de autoría en la creación cultural, el uso intensivo de energía o su empleo en la vigilancia fronteriza.

Según han denunciado ONG como CEO o el Observatoire des Multinationales (ODM), la legislación aprobada favorece en particular a las grandes tecnológicas de Silicon Valley, que han desarrollado en esta década los principales motores de aprendizaje automático. Gemini, el modelo de lenguaje multimodal de Google, Titan, el de Amazon, o ChatGPT, desarrollado con la financiación de Microsoft, son las triunfadoras de un modelo económico que tiende al monopolio y que, aunque está plagado de pequeñas compañías y startup, sigue una particular ley del embudo por el que el rastro del dinero siempre llega a Palo Alto (California), centro de operaciones del capitalismo GAFAM (acrónimo de Google, Apple, Facebook, Amazon y Microsoft).

Cathy O'Neil, que ha criticado los usos del Big Data para la toma de decisiones políticas, explicaba una de las características fundamentales de estos modelos: “Suelen castigar a los pobres”

“Sin embargo”, señala el informe de CEO, “fue el lobby de la startup francesa Mistral AI y de la startup alemana Aleph Alpha lo que inclinó la balanza”. Ambas empresas, favorecidas por ser de la “marca Europa” han tenido acceso a las instancias más altas de toma de decisiones, Pero, como explican desde el propio observatorio, las huellas vuelven a llevar al valle californiano del Silicio. El periodista tecnológico Luca Bertuzzi, detallaba en un hilo de Twitter cómo Mistral IA ha hecho el trabajo sucio para las grandes tecnológicas, en gran medida después del acuerdo que esta compañía firmó en febrero de 2023 con Microsoft, que aporta 15 millones de euros al desarrollo de sus productos y cederá sus servidores para el entrenamiento y la distribución de sus modelos.

Entre los puntos negativos de la ley está que se otorga a las empresas la capacidad de definir qué aplicación de la IA será considerada de alto riesgo y cuál no. Desde Podemos se estima que la definición de alto riesgo “es muy vaga y para todos los usos prohibidos de la IA se establecen excepciones, que son enormes puertas traseras”. La evaluación de impacto sobre los derechos de la ciudadanía que incluye la ley solo se aplicará a las instituciones públicas, mientras que a las empresas que usen esta tecnología únicamente se les anima a adherirse a esos criterios, “sin obligarles a cumplirlos”, recalcan desde este partido de la izquierda europea.

“Debería haber mecanismos de control más allá de la Ley IA, que es un buen primer intento pero es totalmente insuficiente”, resume Scasserra. Se refiere, por ejemplo a las posibles pérdidas de empleos que pueden acarrear estas tecnológicas. En marzo de 2023, solo un año después del lanzamiento de ChatGPT, el banco Goldman Sachs lanzó la estimación de que 300 millones de empleos en todo el mundo —el 18% del total— pueden desaparecer como consecuencia de la expansión de la Inteligencia Artificial. Los trabajos amenazados son los considerados de cuello blanco: puestos administrativos, también en el ámbito de la Justicia, traductores e intérpretes, y también profesionales de la ilustración, artistas, periodistas, publicistas… y profesionales de la programación informática.

Inteligencia artificial
El último 'hype' tecnológico ¿La inteligencia artificial generativa reemplazará a los artistas?
DALL-E o GPT-3 se plantean como una amenaza al sector creativo, pero debemos abandonar el imaginario de reemplazo para buscar vías de cooperación humano-máquina.

El abanico de problemas

En diciembre de 2022, un escándalo sacudió el panorama político australiano. El sistema de asistencia social había notificado por error a 430.000 beneficiarios que tenían una deuda. El plan llevado a cabo por el Gobierno de Scott Morrison se basaba en la presunción de sospecha sobre decenas de miles de personas perceptoras de ayudas. Se cruzaron los datos de ingresos con los de Hacienda y se hicieron sin una investigación humana, solo a través de un modelaje algorítmico. Las respuestas de los ciudadanos que eran conscientes del error y de cómo este estaba arruinando sus vidas caían en un saco roto: la máquina no atendía a razones —no estaba programado para ello— y las altas instancias políticas que la habían puesto en marcha confiaban en ella en su particular guerra contra los pobres. El escándalo de Robodeuda costó vidas humanas —suicidios y deterioro de la salud por la ansiedad provocada por la situación— y 1.800 millones de dólares australianos en indemnizaciones al Gobierno aussie.

No es el único caso en el que la robotización de procesos y el empleo del Big Data han sido un fiasco para las administraciones y una maquinaria de sufrimiento para sus damnificados. En enero de 2021, el Gobierno de Países Bajos dimitió al completo como consecuencia de un escándalo similar. En aquella ocasión, las víctimas eran perceptoras de prestaciones de cuidado infantil. La máquina había empleado un mecanismo de autoaprendizaje que clasificaba perfiles de riesgo de posible fraude. Como consecuencia, el Gobierno emitió multas, un millar de niños y niñas fueron a parar a familias de acogida —separados de sus progenitores— y se repitieron parecidas tragedias: suicidio, problemas de salud mental derivados de la política de discriminación y la confirmación de una situación de racismo institucional que separa a ciudadanos de primera y candidatos a la marginación y la exclusión social.

El tratamiento de datos personales y el derecho a la privacidad son los principales agujeros de un ramillete que se extiende en todas direcciones. La investigadora estadounidense Cathy O'Neil que, con su Armas de Destrucción Matemática (Capitán Swing, 2018), abrió el camino de la crítica hacia los usos del Big Data para la toma de decisiones políticas, explicaba en este libro una de las características fundamentales de estos modelos: “suelen castigar a los pobres”. Y el castigo se aplica en distintas esferas: a la hora de encontrar un empleo —selección automatizada de perfiles—, de percibir ayudas, acceder a becas, perder el derecho a un juicio justo, y hasta de ser seleccionado como un perfil proclive a cometer delitos por parte de software de control de riesgos de tipo “minority report”.

Laboral
Tecnología laboral Inteligencia artificial al servicio de tus jefes
La industria que desarrolla inteligencia artificial para entornos laborales crece y se desarrolla a grandes pasos. Principalmente se utiliza para contratar, organizar, vigilar empleados y predecir rendimiento.


Sofía Scasserra subraya que la cuestión de los sesgos no es el único punto problemático, ni siquiera la cuestión fundamental ya que, razona, ninguna empresa quiere verse asociada a la publicidad negativa que dan las acusaciones de discriminación. Hay, además un problema de acceso y de diseño: no es lo mismo el uso que alguien con cierta formación educativa puede realizar de un programa como Chat GPT que alguien que no está en ese nivel. Esa barrera de entrada es una vía hacia la desigualdad desde la etapa escolar: no es lo mismo un hogar en el que determinadas tareas se pueden hacer con esa u otras herramientas a otros donde no se conocen sus posibles usos, o una escuela en la que el personal está familiarizado con ese software a otras en las que ni siquiera hay computadoras. En otros casos, el diseño por parte de las start-up puede influir en el urbanismo: semáforos que fijan el tiempo de paso de peatones según la velocidad promedio de los viandantes pueden acarrear dificultades añadidas a personas con problemas de movilidad, ancianos o que acostumbran a ir más cargadas.

“La Ley de IA conducirá al uso de tecnologías digitales de formas nuevas y dañinas para apuntalar la Europa Fortaleza y limitar la llegada de personas vulnerables en busca de seguridad”, dicen desde Statewatch

En 2016 nació la Liga de la Justicia Algorítmica, activa hasta el día de hoy, que tiene entre sus objetivos sensibilizar y denunciar sobre los sesgos, de raza, de género y de clase, que se aplican en esos algoritmos. También alertan de la pérdida de un derecho fundamental como es el de la privacidad derivada del uso de los sistemas biométricos de vigilancia.

Precisamente este es uno de los puntos más oscuros de la nueva ley aprobada en el Parlamento Europeo: la ley no prohíbe el uso de la inteligencia artificial en el contexto de la vigilancia fronteriza o en la gestión migratoria, ni el reconocimiento biométrico a través de material grabado. Chris Jones, director ejecutivo de Statewatch, que monitoriza las normas y prácticas de vigilancia y restricción de derechos, reaccionaba así ante la aprobación de la Ley: “La Ley de IA puede ser una ley nueva, pero encaja en una historia mucho más antigua en la que los gobiernos y agencias de la UE —incluyendo Frontex— han violado los derechos de los migrantes y refugiados durante décadas. Implementada junto con una serie de nuevas leyes restrictivas de asilo y migración, la Ley de IA conducirá al uso de tecnologías digitales de formas nuevas y dañinas para apuntalar la ”Europa Fortaleza“ y limitar la llegada de personas vulnerables en busca de seguridad”.

Migración
Fronteras Europa apunta a profundizar el control biométrico de las personas migrantes con la reforma del EURODAC
110 organizaciones de la sociedad civil denuncian que la reforma de EURODAC (Base de datos dactiloscópicos europea de asilo), que podría concretarse este 7 de diciembre, supone un salto adelante en la criminalización de las personas migrantes.


En junio, durante la discusión de la Ley en el Parlamento Europeo, el grupo de The Left consiguió que se prohibiera el uso de ese software de reconocimiento biométrico en tiempo real, pero este mes de marzo, la ley se ha endurecido, incluyendo varias excepciones que lo permiten. La vigilancia biométrica en remoto no ha sido catalogada como “riesgo inaceptable” y ha sido encuadrada en el segundo nivel de “riesgo alto”, cuyo uso está permitido sujeto a requisitos.

Desde Podemos se detalla que tampoco se regula el uso de la IA en el ámbito policial, “por lo que podrá ser comercializada en la UE, abriendo la puerta a su uso para la aplicación de sistemas de reconocimiento de emociones o detectores de mentiras”. Además, no se cierra la aplicación en sistemas de “predictive policing” que busca aplicar la IA a la predicción de la comisión de crímenes, “algo que ya aplican países como Alemania o Francia, mientras que otros como España están estudiando su posible uso”, señalan desde la formación morada. 

En la actualidad se estima que los data centers consumen un 2% del total de la energía mundial, aunque el incremento es geométrico

Escándalos como el de Cambridge Analytica serán vistos como la prehistoria de otra práctica que utiliza la inteligencia artificial para seguir extendiéndose: la manipulación política. El pasado mes de febrero Open AI —creadora de ChatGPT, propiedad entre otros de Elon Musk y Microsoft— lanzó Sora. Sora promete ser la herramienta de vídeo definitiva, capaz de generar escenas complejas a partir de una pequeña descripción por parte del usuario. Pero los expertos indican que este tipo de entornos son especialmente proclives para la intoxicación en campañas electorales a través de imágenes, audio o vídeos engañosos. Los datos personales que se vuelcan en internet son el material de partida con el que se trabaja para la elaboración de perfiles y su uso en campañas para generar simpatías, antipatías o hastío, según el arquetipo generado y explotado por la máquina. El Centro para Contrarrestar el Odio Digital ha alertado de la nueva dimensión que Sora y procesadores similares dan a una práctica como la de deep fake —”creación” o suplantación digital de personas— usada ya en contexto electoral y, también, extraordinariamente dolosa en su utilización para la generación de pornografía.

Inteligencia artificial
Susie Alegre “La IA generativa permite que la desinformación se cree en minutos”
La abogada británica Susie Alegre, especializada en derechos humanos en la era digital, reivindica nuestra privacidad como barrera de protección ante las manipulaciones y advierte sobre el peligro que viene.


El uso de la Inteligencia Artificial ya está totalmente extendido también en la guerra, singularmente a través de los drones. Un artículo reciente de Foreign Affairs ha señalado que el ejército de EE UU usa la IA literalmente “para todo”: para mantener equipos, asignaciones presupuestarias, y hasta la predicción de la invasión rusa de Ucrania en 2022. En el capítulo de riesgos se señala que las IA son utilizadas en ejecuciones extrajudiciales —con o sin errores en la localización de objetivos— o serán capaces de, por ejemplo, sintetizar nuevas armas biológicas. Se advierte también de las “cajas negras” que impiden saber en qué se basan las decisiones tomadas por la inteligencia artificial y de riesgos como que las IA engañen a otras de su especie para instarlas, por ejemplo, a bombardeos no deseados de infraestructuras civiles.

Junto a los problemas de su uso en la restricción de derechos, y a los traumas que ya han generado distintos tipos de software en materia de políticas públicos, otra de las cuestiones no resueltas en la norma tiene que ver con los efectos sobre el clima que ya está teniendo su aplicación masiva y se refiere a la cantidad de energía que gastan los motores basados en el Big Data. Estos centros, por ejemplo, toman el 20% de la energía total que se consume en Irlanda, uno de los destinos prioritarios de las big tech en Europa. En la actualidad se estima que los data centers consumen un 2% del total de la energía mundial, aunque el incremento es geométrico. A nivel global, un informe de la Agencia Internacional de la Energía (IAE) ha calculado que la necesidad de consumo se duplicará desde 2024 hasta 2026. La ley que ha salido del Parlamento Europeo esta semana no incluyen los posibles daños ambientales de los algoritmos en el chequeo de los códigos fuentes aprobado.

Inteligencia artificial
Literatura y tecnología La IA no sustituirá a los autores humanos, pero ya está precarizando la industria editorial
Expertos y profesionales no ven probable librerías llenas de novelas escritas o traducidas por inteligencia artificial, pero sí que se utilice para eliminar puestos de trabajo o pagar peor los ya existentes.

Códigos privados

No hay una solución fácil. El internet de los 90 y los primeros 2000 que ofrecía posibilidades de emancipación, libertad y creatividad, se ha convertido, cuando se cumple un cuarto de siglo, en un espacio controlado por pocas empresas que apresan el trabajo vivo y convierten esa creatividad en productos. Hoy, los algoritmos que funcionan con código abierto generan a menudo comunidades que pueden chequearlo y llevar a cabo un examen para prevenir posibles sesgos o deficiencias, pero la experiencia de los últimos años indica que ese trabajo a menudo es atrapado y privatizado por las grandes empresas.

Ekaitz Cancela, autor de Utopías digitales (Verso, 2023) señala en el análisis de la Ley IA que pone en riesgo los modelos abiertos y libres de las universidades y se pone en riesgo a las pequeñas y medianas empresas, “porque para publicar los modelos abiertos tendrán que gastar enormes sumas de dinero en abogados si no quieren tener problemas”. Para este investigador, la norma aprobada no ha reducido el poder de Silicon Valley sino todo lo contrario, al permitir, entre otros aspectos, que las GAFAM extraigan los modelos abiertos para luego privatizarlos.

Scasserra deja una última reflexión: “Yo no estoy segura de que los códigos abiertos sean la solución, probablemente las licencias creative commons sean lo mejor que se puede pensar, pero esa batalla tampoco está ganada, ¿por qué? Porque la IA necesita sistemas de control mucho más holísticos respecto de los impactos y su forma de implementación. Si el debate tratase solo de los sesgos se resolvería muy fácilmente, pero el debate es mucho más amplio y es mucho más complejo”.

Una visión ciberfetichista y utópica nos presenta el futuro con contornos increíbles: planetas enteros diseñados en base a pocos parámetros, una explosión de creatividad y aligeramiento de tareas cotidianas fatigosas. Más tiempo fuera del trabajo, más libertad, en una palabra. La visión tecnoterrorífica pone de relieve la capacidad de destrucción de la humanidad que puede alcanzase aun más fácil o más rápidamente a través de los saltos cuánticos en inteligencia artificial y, como mínimo, un escenario de mayor desigualdad y discriminación. El devenir de la historia de la humanidad en la era del capitalismo señala que una vía es más probable que la otra. Especialmente cuando suenan los tambores de guerra en todo el mundo.

Informar de un error
Es necesario tener cuenta y acceder a ella para poder hacer envíos. Regístrate. Entra en tu cuenta.

Relacionadas

Inteligencia artificial
Inteligencia artificial IA y crisis climática: las grandes tecnológicas escogen España para instalar sus gigantescos centros de datos
El boom de la IA ha disparado las necesidades de computación de los centros de datos y su consumo de agua. Las grandes tecnológicas buscan nuevas regiones para instalarlos. España entre ellos.
Análisis
Análisis AI Act: un reglamento nuevo para afianzar el orden racial y colonial de siempre
La nueva normativa de Inteligencia Artificial establece una “regulación paralela” en función de quienes son las personas afectadas, algo observable en los usos que se prevén en contextos fronterizos y policiales.
Videovigilancia
Derechos y libertades Videovigilancia algorítmica en nombre de la seguridad de los Juegos Olímpicos de París
Aunque las autoridades francesas aseguran que no se utilizará el reconocimiento facial durante los Juegos Olímpicos de París, existe el temor de que el uso de la videovigilancia algorítmica se convierta en permanente.
Palestina
Genocidio La ONU incluye al ejército de Israel en su lista negra de entidades dañinas para la infancia
El Estado sionista prosigue con el genocidio en Gaza, atacando campos de refugiados en el centro de la Franja y colapsando hospitales. Tras ocho meses de genocidio, solo hay 15 centros sanitarios parcialmente activos y cinco de campaña.
Entrevista La Poderío
Bethlehem Habboob “Es fundamental llevar el boicot a Israel a lo académico”
Bethlehem Habboob es una activista andaluzo-palestina. Junto al estudiantado, y gracias a las movilizaciones contra el genocidio del pueblo palestino en Gaza, han conseguido que la Universidad de Granada rompa sus relaciones académicas con Israel.
Elecciones
Elecciones europeas Lo verde ya no cotiza al alza: la difícil campaña en Europa para los ecologistas
El grupo de los verdes podría perder en estas elecciones europeas un tercio de sus eurodiputados y pasar de cuarta a sexta fuerza en el Parlamento Europeo.
Italia
Italia Meloni proyecta su modelo ultraderechista sobre Europa
Todas las encuestas indican que Hermanos de Italia se impondrá en las elecciones a la Eurocámara con un 27% de los votos. Su líder se presenta como cabeza de lista en los comicios, aunque renunciará a su acta.
Desokupa
Fascismos La denuncia contra Llados y el lavado de cara de la ultraderecha
Es indignante cómo en muchísimos medios de comunicación se ha hablado de la denuncia obviando ese pequeño dato de que son fuerzas fascistas las que la llevan adelante.

Últimas

Deportes
Escalada Escalada libre de gordofobia y violencias, ¿es posible?
Desde los trastornos alimentarios que afectan a las profesionales hasta las miradas críticas que impiden que personas nuevas en el deporte se inicien. ¿Qué se puede hacer para que la escalada se llene de cuerpos diversos?
Palestina
Genocidio Acaba la acampada por Palestina en la Universidad Complutense: “La lucha sigue más allá”
Este sábado 8 de junio tendrá lugar su próxima acción: una concentración en Sol a las 18 horas para denunciar la complicidad de la UE con el genocidio en Palestina, en plena jornada de reflexión.
Nazis
Entrevista Meg Ostrum: “La imaginación y el ingenio son esenciales en las estrategias de resistencia”
El Cirujano y el Pastor recoge memorias de resistencia al nazismo protagonizada por héroes anónimos, su autora ha recorrido Euskal Herria para presentarlo tras 20 años de investigación
Más noticias
Green European Journal
Green European Journal ¿Una generación disociada? El voto joven y el futuro de Europa
Las instituciones de la UE y las fuerzas políticas tratan de ganarse el voto de los más jóvenes. Sin embargo, la juventud de hoy en día parece estar desconectada, abrumada por las numerosas crisis y la incertidumbre sobre el futuro.
Derecho a la vivienda
Derecho a la vivienda 900 familias y diez bloques se declaran en “huelga de alquileres” contra el fondo buitre Azora
El tercer casero privado de España incluye cláusulas abusivas en contratos de 8.000 hogares. Casi mil de ellos se niegan a pagar aumentos que superan el 20%, burlando las leyes de alquileres y vivienda.
Caso Carioca
Caso Carioca Condenan a cuatro años al guardia civil que violó y abusó de prostitutas tras una rebaja de 21 años en la pena
Un agente y tres proxenetas se benefician, en la pieza principal del caso Carioca, de llegar con la Fiscalía a acuerdos de conformidad encubiertos formalmente bajo la celebración de un juicio completo que no se produjo.
Bizkaia
Bizkaia LAB, CC OO y ESK firman el preacuerdo de intervención social con incrementos salariales progresivos del 24%
La subida será del 0% por 2022, del 3,1% por 2023 y del 4% en 2024. En 2025 el aumento acordado es del 6% y, ya fuera de la vigencia del convenio, del 11% en 2026, repartido en dos tandas.

Recomendadas

Elecciones
Elecciones europeas Serigne Mbaye: “Si llego, voy a estar en el Parlamento y en la calle. Si no llego, sigo a pie de calle”
El exdiputado madrileño se presenta en las elecciones europeas en el puesto número cuatro en la lista de Podemos. En esta entrevista habla de los cambios que están teniendo lugar en Senegal, su país de origen.
Alemania
Alemania Jakob Springfeld, un “joven, alemán del Este, contra la extrema derecha”
Springfeld ofrece una perspectiva del ascenso de la extrema derecha en Alemania en los últimos años, partiendo de su adolescencia en Zwickau, ciudad sajona que ejerció de escondite del grupo terrorista Clandestinidad Nacionalsocialista.
Sáhara
Sáhara Occidental Seis empresas gallegas, partícipes del expolio pesquero en el Sáhara Occidental
A la vulneración constante de los derechos humanos en el Sáhara Occidental ocupado se une un secreto a voces: el expolio de recursos naturales saharauis por parte de empresas europeas. Muchas de ellas, gallegas.
Elecciones
Ana Miranda “La voz del BNG en Bruselas es la de las causas justas. Desde Palestina hasta la celulosa de Altri"
La candidata del BNG-Agora Repúblicas a las elecciones europeas defiende que buena parte de su trabajo es canalizar las denuncias de la sociedad civil organizada e internacionalizarlas, ser un altavoz institucional “de un trabajo colectivo”.