Archivo de la categoría: Tecnología

Las TIC, la inteligencia artificial o la Administración inteligente son conceptos que nuestras organizaciones públicas están y deben adoptar para responder mejor al ciudadano.

El bitcoin no es dinero

La Sentencia del Tribunal Supremo nº 326/2019 , de 20 de junio de 2019, declara que el bitcoin no es dinero de curso legal. Esa es la noticia en los medios. Pero en un giro inesperado de su Jurisprudencia, declara que no se puede restituir a la víctima de estafa en la que entregó esta cibermoneda.

El comentario completo se encuentra publicado en la Revista Aranzadi doctrinal, nº 10, de noviembre de 2019: «Los Bitcoins no se restituyen a la víctima de estafa al no ser dinero. Giro radical de la doctrina del Tribunal Supremo»

La Sentencia del TS fue dada a conocer en los medios de comunicación por declarar algo que muchos ya sospechábamos, que el bitcoin no es dinero de curso legal (F.J. 3º), y por tanto no puede considerarse como medio de pago oficial. En un recurso por un delito continuado de estafa en el que el condenado recababa bitcoins de las víctimas para invertirlos (supuestamente) en trading de alta frecuencia y devolverles parte de las ganancias, el Supremo llega a esa conclusión tras defender su giro doctrinal, consistente en que no se puede devolver esta criptodivisa sino su equivalente en dinero.

El bitcoin sigue siendo moneda de cambio en transacciones comerciales

Esta doctrina no afecta solo al bitcoin sino, por extensión, al resto de las cientos de criptomonedas existentes. Por otro lado, que no se considere moneda a efectos legales tiene dos consecuencias claras:

  • No se puede imponer el pago con bitcoins en las transacciones comerciales, y mucho menos realizar el pago de tributos u otras contraprestaciones a la Administración. No obstante, hay países donde se ya pueden pagar en bitcoins. Por ejemplo, el Estado de Ohio (EE.UU) ya lo permite, si bien hay cierta tendencia a prohibir su uso en otras naciones por miedo a los efectos en la economía (y en la recaudación de los gobiernos). Es el caso de China, Canadá o Rusia, por poner algunos casos.
  • Los particulares (personas y empresas) pueden acordar libremente pagar sus transacciones en estas criptodivisas. No obstante, a efectos legales (facturación, declaraciones tributarias y pago de impuestos) se deberán expresar en la moneda oficial.

El bitcoin es un activo patrimonial inmaterial

El Fallo judicial ha tenido la oportunidad de aclarar cómo debe considerarse a esta moneda virtual. Para ello, además de indicar que es una «unidad de cuenta de la red del mismo nombre» y resumir brevemente su funcionamiento por medio del blockchain, la considera

un activo patrimonial inmaterial, en forma de unidad de cuenta definida mediante la tecnología informática y criptográfica denominada bitcoin, cuyo valor es el que cada unidad de cuenta o su porción alcance por el concierto de la oferta y la demanda en la venta que de estas unidades se realiza a través de las plataformas de trading Bitcoin

Hemos de recordar que el bitcoin, como las demás criptodivisas, no cuenta con un mercado centralizado (como sí tienen los de acciones, futuros…) aunque se parece a los mercados de intercambio de moneda fiduciaria (de curso legal) precisamente en esa descentralización. Esto no quiere decir que este dinero no esté regulado por los respectivos gobiernos, sino que los mercados en que se intercambia (denominados Forex (foreign exchange. mercado de divisas), no lo están. De ahí el distinto (aunque similar) precio que pueden alcanzar las distintas divisas y las criptomonedas, según dónde las queramos comprar/vender.

Las criptomonedas sustraídas no se devuelven a su dueño

Tras aclarar la exclusión del bitcoin del sistema monetario oficial, la Sentencia del TS esconde otra cuestión más polémica y que apenas se ha difundido. Tanto el Juzgador de instancia como el Supremo mantienen la condena y el resarcimiento a las cinco víctimas de la estafa. Este resarcimiento civil se regula en los artículos 109 y siguientes del Código Penal. El artículo 111.1 establece que

Deberá restituirse, siempre que sea posible, el mismo bien, con abono de los deterioros y menoscabos que el juez o tribunal determinen.

Pues bien, pese a reconocer que se entregaron al estafador cierta cantidad de bitcoins, que las acusaciones solicitan la restitución de esta moneda, y que la propia Jurisprudencia del TS mantiene lo indicado por el Código Penal, la Sentencia cambia radicalmente de criterio en un giro dramático del relato jurídico para concluir que

Aun cuando la jurisprudencia de esta Sala ha expresado la obligación de restituir cualquier bien objeto del delito, incluso el dinero, los acusados [sic] no fueron despojados de bitcoins que deban serles retornados, sino que el acto de disposición patrimonial que debe resarcirse se materializó sobre el dinero en euros que, por el engaño inherente a la estafa, entregaron al acusado para invertir en activos de este tipo. Por otro lado, tampoco el denominado bitcoin es algo susceptible de retorno, puesto que no se trata de un objeto material, ni tiene la consideración legal de dinero.

El bitcoin no se devuelve a la víctima porque no es dinero ni es material

Permítanme que no salga de mi asombro por esta conclusión de nuestro Tribunal Supremo. Tres razones, cada cual, a mi juicio, más inverosímil, para justificar que no se devuelvan los bitcoins a las víctimas, sino su equivalente en dinero. Y teniendo en cuenta la volatilidad de esta moneda pueden estar perdiendo dinero.

Primero, obviando el error al mencionar a los acusados en lugar de a las víctimas, el texto transcrito indica que estas no fueron despojadas de bitcoins (como sí reconoce en otro pasaje) sino del equivalente en euros. Una conclusión verdaderamente sorprendente.

En segundo lugar, el bitcoin no puede devolverse al ser algo inmaterial. ¿Acaso solo se devuelven objetos materiales? el Código Penal no especifica qué debe devolverse sino que indica claramente que se restituya lo sustraído.

Y en tercer lugar, termina su justificación diciendo que el bitcoin no es dinero. Y con eso motiva su negativa a devolver lo que se sustrajo. ¿Acaso el Código Penal y la doctrina Jurisprudencial solo permiten devolver dinero?¿No se devuelven acciones, vehículos, documentos, etc.?

En fin, una Sentencia para reflexionar y sobre la que les agradecería sus comentarios.

También le puede interesar:

Algoritmos y transparencia administrativa

Un algoritmo oculto resuelve las solicitudes del bono social. Según denuncia la Fundación Civio, aquel deja fuera del bono a personas con derecho a obtenerlo. Los algoritmos también deben respetar la transparencia administrativa, cuestión que estudio a continuación.

Algoritmos
Inteligencia artificial y algoritmos

El algoritmo que decide sobre el bono social

Si algo caracteriza a cualquier Estado de Derecho son, entre otros, el principio de seguridad jurídica y el de transparencia de la actuación administrativa. Los actos de las Administraciones Públicas deben ser motivados y totalmente transparentes para que los ciudadanos sepan claramente cómo se han emitido, por quién y con base en qué criterios.

La aplicación de la inteligencia artificial (IA) y los algoritmos en la Administración es algo que a muchos nos fascina por las grandes ventajas que conlleva al lograrse una mayor eficacia, rapidez y ahorro de costes. Al mismo tiempo logrará una Administración más proactiva. Será, o está siendo ya, una verdadera revolución.

Los requisitos del bono social se regulan en el Real Decreto 897/2017, por el que aplica una tarifa eléctrica reducida a consumidores vulnerables. Este se desarrolla por la Orden ETU/943/2017, y la fórmula para el cálculo de los beneficiarios viene establecida en el Real Decreto 216/2014, por el que se establece la metodología de cálculo de los precios voluntarios para el pequeño consumidor de energía eléctrica y su régimen jurídico de contratación.

El bono social lo decide un algoritmo
El bono social lo decide un algoritmo

Toma de decisiones automática y semi-delegada

La peculiaridad del sistema es que son las eléctricas, como titulares de los contratos con los consumidores finales, quienes tramitan la concesión del bono. Lo hacen consultando un algoritmo informático llamado BOSCO, pero que nadie conoce. Las solicitudes se presentan a las eléctricas, que acceden a la sede electrónica del Ministerio de Industria para introducir los datos y consultar si se cumplen los requisitos. La aplicación informática responde con un «CUMPLE/NO CUMPLE LOS REQUISITOS PARA SER CONSIDERADO CONSUMIDOR VULNERABLE/VULNERABLE SEVERO».

Así pues, nos encontramos con un procedimiento automático tramitado por una empresa privada que hace de intermediario, trasladando al consumidor un sí o un no decidido por una «inteligencia artificial».

Ante las quejas de ciudadanos a quienes se les denegó el bono, la Fundación Civio solicitó el código al Gobierno y a través del Consejo de Transparencia y Buen Gobierno, pero le ha sido denegado alegando que está sujeto a propiedad intelectual (¿?).

Dejando al margen lo peculiar del caso, con intervención al inicio y al final de una entidad privada, el uso de la IA y los algoritmos plantea varias cuestiones: cómo funcionan, qué datos tienen en cuenta, deciden solos, cómo lo hacen, etc.

La cuestión tiene gran trascendencia por lo que ya hemos apuntado, los derechos de los ciudadanos dependen del buen funcionamiento de estas piezas de código. Se supeditan a que apliquen correctamente las normas y se sepa cómo actúan. Recordemos que la Ley 40/2015 ya regula la actuación administrativa automatizada, sin intervención humana, como parece ser el caso, pues la actuación puramente administrativa se limita a aplicar el programa y dar una decisión. Su artículo 41 exige que para que los algoritmos puedan actuar de manera automática debe:

«establecerse previamente el órgano u órganos competentes, según los casos, para la definición de las especificaciones, programación, mantenimiento, supervisión y control de calidad y, en su caso, auditoría del sistema de información y de su código fuente. Asimismo, se indicará el órgano que debe ser considerado responsable a efectos de impugnación»

¿Es suficiente la motivación de la resolución administrativa cuando decide una IA?

En términos generales, además de estos requisitos, obvios para garantizar los derechos de los ciudadanos a una buena Administración, resulta evidente que las resoluciones que emitan los algoritmos deberán estar motivadas, sobre todo las denegatorias. Hasta aquí normal si tenemos en cuenta que son garantías básicas del procedimiento administrativo, equivalentes a las que se dan cuando decide un funcionario.

Recordemos que cuando dejamos a las máquinas trabajar por nosotros nos encontramos, igualmente, ante procesos regulados por la misma normativa procesal administrativa que los que pueden ejecutar los humanos, con la particularidad de que es un ordenador el que tramita parte o todo el expediente. De hecho, llevamos décadas confiando en los ordenadores también parte de nuestro trabajo, si bien bajo nuestro control.

¿Sustituye la IA nuestros procesos mentales?

Algoritmos y Administración Pública
Algoritmos y Administración Pública

Por tanto, un acto administrativo ha de estar debidamente motivado y ofrecer al ciudadano los recursos legales pertinentes contra el mismo. El tema que se plantea es si el algoritmo cumple dichos requisitos y lo que está haciendo realmente es sustituir el proceso mental del funcionario a la hora de tomar la decisión. ¿No bastaría con ello para entender tal decisión como válida?

Se trata de una cuestión muy interesante que podría justificar la no revelación del algoritmo con el proceso informático (equivalente al proceso mental del funcionario) que se ha utilizado, teniendo en cuenta que la resolución cumpla los requisitos legales.

Claro está que nos encontramos aquí con el supuesto que motiva este comentario, que se han denegado sin más solicitudes que, a priori, cumplen con los requisitos.

Obviamente, debemos preguntarnos qué criterio ha seguido y qué proceso ha realizado el algoritmo para llegar a esa conclusión. Aquí entra en juego claramente el principio de transparencia y el derecho a conocer al protagonista de la resolución. ¿Sería equivalente el derecho a conocer al funcionario que resuelve con el derecho a conocer el código fuente del programa informático?

Propiedad intelectual de los algoritmos públicos

Junto a la aplicación de la inteligencia artificial o los algoritmos en la toma de decisiones administrativas nos encontramos en este caso particular con otra cuestión conexa. Se trata de la razón ofrecida por el Ejecutivo y el Consejo de Transparencia para denegar el código fuente: que está sometido a propiedad intelectual.

De acuerdo con el artículo 14.1.j) de la Ley 19/2013, de transparencia, acceso a la información pública y buen gobierno, el derecho de acceso está limitado cuando concurra, entre otras, esta causa.

Pero ¿están sometidos a propiedad intelectual los algoritmos públicos? Primeramente hay que decir que de la información aportada por la Fundación y ofrecida por los medios de comunicación no queda claro si el algoritmo lo ha creado la Administración o se ha comprado a una empresa. Supongo que lo primero porque su creación no plantea dificultades y la AGE cuenta con muy buenos informáticos.

No se debería limitar el derecho de acceso

En cualquier caso esto no debería ser un límite al derecho de acceso, por cuanto la aplicación informática, al traducir a lenguaje del ordenador una norma jurídica para aplicarla, está ejerciendo «funciones públicas». Está sustituyendo a un empleado público y se ha creado o adquirido con dinero público.

Si ese programa falla y además no se motiva la resolución no queda más que responder que los ciudadanos tenemos derecho a conocer el código fuente del algoritmo para defender nuestros derechos. La seguridad jurídica y las garantías del ciudadano están en juego, sin contar en este caso concreto, con los costes económicos que se pueden derivar a consumidores vulnerables.

Entradas relacionadas:

También puede interesar esta lectura:
Inteligencia artificial y Administración pública: Robots y humanos compartiendo el servicio público.
De Carles Ramió

¿Podría la inteligencia artificial gobernar mejor que los políticos?

La Inteligencia artificial no deja de sorprender por los ámbitos en los que está dando resultados sorprendente. Ayuda a personas y organizaciones a tomar mejores decisiones. Por esto mismo se ha planteado si una inteligencia artificial podría gobernar mejor que los políticos, sobre todo si tenemos en cuenta cómo lo están haciendo últimamente. Ya se han realizado experiencias al respecto. Incluso en Japón una IA se presentó a una alcaldía.

Inteligencia artificial en la toma de decisiones políticas

El título de este apartado bien podría haber sido «una inteligencia artificial para gobernarlos a todos», parafraseando a «El Señor de los anillos». Y esto viene a cuento por los interesantes resultados de la encuesta European Tech Insights 2019, realizada por el «Center for the Governance of Change» de la Universidad internacional IE University, ubicada en la no menos internacional Segovia.

La IA se ha convertido en el gran concepto disruptivo (se ha puesto de moda la palabreja. Habrá que usarla) del momento. Afecta y afectará a casi todos los sectores, desde la medicina hasta la industria y los servicios.

La utilización de robots e inteligencia artificial va a suponer también profundos cambios en el empleo y la toma de decisiones. Y precisamente el estudio European Tech Insights 2019 refleja la preocupación y esperanzas de los ciudadanos al respecto.

El 25% de los ciudadanos prefiere que gobierne una Inteligencia artificial

La encuesta, realizada entre ciudadanos de ocho países europeos, incluida España, refleja el descontento generalizado con los políticos y la consecuente pérdida de confianza en las élites gobernantes. Con esto que se llega a entender que el 25% de los encuestados prefiera, dado el caso, que una IA les gobierne. Este porcentaje medio varía entre un 43% en Holanda y un 19% en Portugal, siendo del 26% en España.

Ahora bien, la encuesta también refleja las reticencias por la utilización y más que posible invasión de robots y algoritmos en el entorno laboral, que hace peligrar los trabajos. No obstante, los encuestados también son conscientes de sus ventajas en ciertas tareas. De ahí que entre un 67 y un 75% apoyaría políticas dirigidas a gravar con tributos su utilización en las empresas, o su uso limitado a trabajos peligrosos e insalubres. También se preferiría que los gobiernos limitaran los empleos donde podrían utilizarse las máquinas.

Ventajas de una Inteligencia artificial política

La idea de utilizar la IA para adoptar decisiones políticas no parece del todo descabellada, aunque con matices. Obviamente, contaría con ventajas e inconvenientes, algunos de los cuales me gustaría apuntar. Como problema de base hay que considerar los errores que cometen los políticos en la toma de decisiones, primero por ser humanos y también por tener, en ocasiones (quizás demasiadas), ciertos intereses desconectados realmente del interés general. La aplicación de la inteligencia artificial sería una oportunidad para aislar esa toma de decisiones de las posibles desviaciones de poder.

La IA quedaría libre de las subjetividades humanas y sus decisiones partirían de algoritmos que tuviesen en cuenta datos y criterios más objetivos de interés general. Podría dirigir sus esfuerzos a resolver el problema de que se trate con un conocimiento más amplio de la situación y sus variables.

Machine learning a partir de big data para la toma de decisiones

Uno de los aspectos que están influyendo grandemente en la aplicación de la IA son las posibilidades que ofrece para gestionar ingentes cantidades de datos; el llamado big data. Partiendo de cientos de miles de esos datos y mediante aprendizaje supervisado o no supervisado, los algoritmos de machine learning pueden extraer conclusiones y tomar decisiones. Todo ello ofrece más probabilidad de éxito que de otro modo no sería posible o costaría mucho trabajo alcanzar con parecido grado de efectividad.

No olvidemos que la toma de decisiones, sean o no políticas, las realice una persona o una máquina, se basa realmente en la realización de predicciones a partir de datos; también en contar con la mayor información posible sobre el problema y las cuestiones a él conectadas, los afectados, así como en cuanto a las implicaciones derivadas. Con toda esta información se decide en función de la mayor probabilidad de éxito que tenga una determinada acción.

Si se quiere acertar, al menos con una mayor probabilidad, a la hora de poner en práctica políticas públicas o solucionar problemas sociales, tal cantidad de parámetros puede sobrepasar la capacidad humana. Aquí entra en escena la inteligencia artificial, que puede conocer todos los antecedentes y las consecuencias de todas la decisiones y situaciones iguales o similares sucedidas anteriormente, aprendiendo de ellas, y tener en cuenta, como digo, todos los datos.

Las políticas públicas requieren gestionar muchos datos

En la práctica, por muy elaborada que sea una política pública o muy bien preparado que esté un expediente para decidir en el ámbito político, siempre existirán aspectos que se quedarán fuera. La gestión pública es cada vez más compleja; hay muchos participantes e intereses en juego, y cuanta más alto sea el grado de responsabilidad más complicado se vuelve el proceso de decisión.

Por tanto, la capacidad de cálculo, la cantidad de datos que puede procesar la inteligencia artificial, así como la posibilidad de evitar los sesgos humanos llevan a dar la razón a ese 25% de personas que preferiría que gobernase una IA.

Algunos casos de uso de la inteligencia artificial en la toma de decisiones

A pesar de lo novedoso que nos puede parecer todo esto ya se están probando e implantando sistema de IA que ayudan a la toma de decisiones, realizan tareas automatizadas o incluso que van más allá resolviendo expedientes, tomando esas decisiones.

En el entorno privado recordemos la actual implantación de sistemas de inteligencia artificial en la Abogacía, tanto para toma de decisiones como para automatización de tareas repetitivas.

En el ámbito público me llamó la atención la aplicación de sistemas inteligentes en la Administración de Justicia de EE.UU., donde la IA ya dicta sentencias, e incluso envía personas a la cárcel. Se trata, ciertamente de un tema muy delicado y que plantea muchas dudas, pero ahí está, en desarrollo.

La Policía Nacional ya utiliza en algunas de sus comisarías un algoritmo que detecta denuncias falsas a través de machine learning, que se han reducido hasta en un 40%. No se trata de un proceso puro de toma de decisiones sino de un modelo que detecta los casos en que muy probablemente se da una denuncia falsa y ayuda a tomar la decisión correspondiente.

La IA ya toma decisiones judiciales en EE.UU.
La IA ya toma decisiones judiciales en EE.UU.

Inteligencia artificial y Administración Pública

Además de la política, la Administración Pública también se puede beneficiar de la IA en la toma de decisiones. Y sería más fácil de implantar en el ámbito más técnico-administrativo. Por ejemplo, a la hora de resolver solicitudes en las que los requisitos están tasados, son objetivos; previa una simple comprobación se puede adoptar la decisión. Esto resulta muy fácil gracias a la informática, las bases de datos y la interoperabilidad, por la que las Administraciones pueden consultar e intercambiar datos y metadatos en diversos registros .

Pongamos por caso la bonificación en el Impuesto sobre vehículos para los híbridos eléctricos. Los datos que necesitamos básicos son la matrícula y si se trata, efectivamente, de este tipo de vehículo. El interesado realiza su solicitud, aporta la matrícula, y la IA busca en el registro de la DGT la titularidad y que el vehículo es híbrido, comprobando que el campo categoría eléctrica tiene el código HEV. Con ello puede resolver incluso sin intervención humana, creando el Decreto, plasmando las correspondientes firmas electrónicas (previamente se ha aprobado que la IA las utilice), registrando e imprimiendo la notificación, o avisando al funcionario que ya está todo listo para que la imprima y envíe al destinatario.

Al fin y al cabo se trata de la automatización de procesos mediante algoritmos. Lo que hasta ahora hace una persona comprobando datos, desde ahora lo realiza la IA. Una vez se conoce la eficacia del sistema no hay problema en que se le habilite que plasme las firmas electrónicas, como ya se hace con otras escaneadas.

Desventajas de una inteligencia artificial política

La primera desventaja que veo a todo esto es que no creo que a los políticos les guste perder ese poder de decisión que tienen y que caracteriza nuestro sistema político. Que una máquina nos gobierne y tome decisiones por nosotros aún causa temor y pasarán años antes de que veamos algún caso. Otra cosa es que se utilice como en otros ámbitos, que ayude aportando su propuesta, que sería supervisada por humanos, que tomarían la decisión final.

Una desventaja más a tener en cuenta es quién programa la IA. Al fin y a la postre serán humanos, informáticos que plasmen los criterios legales, técnicos y políticos necesarios para el funcionamiento del sistema. Y donde hay intervención humana siempre habrá posibilidad de sesgos y errores de programación de los algoritmos.

Si bien tendemos a confiar en los ordenadores y pensamos que estos no se equivocan, pueden darse esos problemas. Recordemos el caso del reclutador de Amazon, que discriminaba a las mujeres a la hora de contratar personal porque sus programadores eran hombres y aplicaban determinados sesgos.

El peligro de una IA que «piense» por sí misma

También da qué pensar las posibilidades de que la inteligencia artificial en política comience a tomar «sus propias decisiones», que aprenda por sí sola. Recordemos casos reales como la IA de Microsoft que se volvió racista y xenófoba. O la IA de Facebook que había inventado su propio lenguaje, desconocido para los propios programadores.

Imaginemos que a partir de los temores apuntados por los ciudadanos en la encuesta que da pie a esta ya larga entrada se decide legislar para limitar el uso de la IA o gravarla con impuestos. ¿Nos fiaríamos de que otra IA tome la decisión más adecuada?

Y para terminar, pero no menos importante, la toma de decisiones ¿debería basarse solo en datos o habrían de tenerse en cuenta también factores más subjetivos? La adopción de resoluciones y acuerdos en política tiene, o debe tener, un componente más humano. Sus implicaciones en la sociedad o en determinados colectivos son, quizás, cuestiones que una IA no sepa vislumbrar por la propia complejidad de nuestro modelo social y político, e incluso geopolítico. ¿Sería aquí donde entra en juego la intervención del político para considerar esas implicaciones junto con la propuesta de la IA? ¿anularía el juicio de la IA el hecho de no tener en cuenta factores subjetivos?

Para finalizar, apuntar simplemente las implicaciones que el uso de estos sistemas tendrían en el sistema democrático. Si decide una IA, o incluso si se decide con base en predicciones de la IA, ¿cómo se elaboran los programas electorales o las políticas públicas ante la incertidumbre de lo que aquella pueda decir en cada momento y caso?

Entradas relacionadas

Algoritmos y transparencia administrativa

Inteligencia artificial en la Administración