Association for Moral Education

View Original

Will Moral Software Reduce the Need of Moral Education? The Evaluation of Academic Texts in Spain – Levy Farías (English and Spanish versions)

Will moral software reduce the need of moral education?
The evaluation of academic texts in Spain

Levy Farías

Versión española

Explaining his views on moral development, Lawrence Kohlberg used to contrast moral principles with moral commandments. Would he still be with us, I believe he would also be contrasting moral principles with the increasing use of what may be called “moral software:” decision processes with moral implications, in which cybernetic mechanisms replace or outweigh by far human judgments. Of course, we can only wonder how many new insights Professor Larry would be giving us, but any reader can compare what he wrote about the limitations of simplistic, rigid, moral commandments with the noticeable limitations of the diverse moral software tools that proliferate nowadays.    

Consider, for instance, the recent, presumed plagiarism cases involving several Spanish leading politicians[i]. In one of them, the accused person defended himself with the numeric outcomes of some antiplagiarism software tools applied to his questioned PhD thesis. That is to say, he provided  supposedly impartial, automated and rigorous tests of his innocence. But the defense proved of little avail, because a representative of one of the companies involved quickly voiced doubts and made clear their product still requires a good deal of expert or human interpretation[ii].

On the other hand, if you need to write a thesis or term paper for a Spanish university, in the classified ads you will find a good number of companies and freelance tutors or ghostwriters offering to write it for you, in a matter of days, about any possible theme or with any method or research design you may require... plus antiplagiarism quality control! In short, if you are willing to pay their fees and they truly do what they say, you can cheat without any risk of being detected by antiplagiarism software tools, because your thesis will be some sort of “original”, first-hand or brand new plagiarism. You won’t have any merit —obviously— but if we are going to be ruled by the simplistic, fast and cold commandments of artificial intelligence rather than by the sensible application of high-level moral thinking to complex problems, who cares?

Another instance to think about is the evaluation of Spanish university professors. In a recent lawsuit that went all the way to the Spanish Supreme Court[iii], the judges ruled in favor of a researcher whose published papers had been dismissed by the ANECA (the governmental agency in charge of the academic quality of universities) without reading them. As it happens, the ANECA assessments are heavily focused on the Impact Factors of the Journals in which you have published your texts. Since that impact has been conveniently quantified through current digital technologies, the ANECA will comply with the Court ruling in that particular case, and apparently in a few others[iv], but otherwise, as true believers in dataism[v], they will continue evaluating academic work reducing as much as possible the role of human judgments. Sheer citation numbers will tell the truth and “nothing but the truth.”  

Will the day come in which people could be preventively imprisoned by some delinquency-prone coefficient, calculated by the state-of-the-art software? Are we heading towards some sort of Minority Report[vi] real-life remake? I mean, if your academic contributions can be profiled or dismissed without reading them, why can’t your behavior be also profiled, punished —or prevented— without any complex evaluations about your character and motives, or about the available, often messy, evidence. Feeding the software with the appropriate databases of crimes committed by people of your same social class, gender, age range, ethnicity, religion, political ideology, consumer habits and... perhaps even your latest searches in Google or posts in Facebook, surely it will be possible to design some algorithm to determine if you are innocent or guilty —or will be guilty in the near future— with some little margin of error, but in an incredibly faster and cheaper way than our current judiciary systems.

Am I plain wrong? Am I exaggerating the reasons to worry? Perhaps. I am no expert in artificial intelligence, big data, neural networks or any trendy knowledge systems. I do not trust in the auto correction tools of word processors, and I immediately distrust people or gadgets that claim to be “smarter” than everyone else. Even worse, you could say I have a vested interest in these issues, because I do fear that the ANECA will soon blindly dismiss my modest academic trajectory in a different, South American, higher education context. In any case, my point is just this: We need to work as much as is humanly possible in favor of moral principles, moral ideals, the cultivation of moral and civic virtues, or ethics, before some eventual merger of giant tech corporations may come to the conclusion that the neuroarchitecture and data processing capabilities of ordinary people are too primitive and obsolete to continue believing in democracy as the best possible form of government. When I speak of “we”, I am speaking of any believer in justice and freedom, and quite especially, of all the professionals who form the Association for Moral Education. 

Levy Farías

Note: Below the Spanish version, you will find the references and a space to make a comment if you wish.


See this content in the original post

Al explicar su enfoque del desarrollo moral, Lawrence Kohlberg solía contrastar los principios morales con los mandamientos morales. Creo que si todavía estuviera entre nosotros, ahora también estaría contrastando a los principios morales con el creciente uso de lo que podríamos llamar “software moral”: procesos de toma de decisiones, con implicaciones morales, en los cuales los mecanismos cibernéticos reemplazan o superan por mucho a las valoraciones humanas. Por supuesto, tan solo podemos especular sobre las muchas ideas novedosas que el Profesor Larry nos seguiría brindando, pero cualquier lector puede comparar lo que él escribió sobre las limitaciones de los rígidos y simplistas mandamientos morales, con las notorias limitaciones de las diversas herramientas de software moral que proliferan hoy día.   

Consideremos, por ejemplo, los presuntos casos de plagio que han involucrado recientemente a varios de los más importantes políticos españoles[i]. En uno de esos casos, el acusado se defendió con los resultados numéricos de algunas herramientas antiplagio aplicadas a su cuestionada tesis doctoral. Es decir, proporcionó pruebas supuestamente imparciales, automatizadas y rigurosas de su inocencia. Pero esa defensa no sirvió de mucho, pues el representante de una de las compañías involucradas rápidamente planteó dudas y aclaró que su producto todavía requiere una buena dosis de interpretación experta o humana[ii].   

Por otra parte, si usted necesita escribir una tesis o trabajo de fin de curso para una universidad española, en los anuncios clasificados encontrará un buen número de compañías y tutores independientes, o escritores a sueldo, que ofrecen escribirla por usted en cuestión de días, sobre cualquier tema concebible y con cualquier método o diseño de investigación que usted pueda requerir... ¡todo ello más un control de calidad antiplagio!  De manera que, si usted está dispuesto a pagar sus tarifas y ellos realmente cumplen con lo que ofrecen, usted puede hacer trampa sin ningún riesgo de ser detectado por las herramientas de software antiplagio porque su tesis será alguna clase de plagio “original”, de primera mano, o recién salido del horno. Por supuesto, a usted no le corresponderá ningún mérito en verdad, pero si vamos a ser gobernados por las simplistas, rápidas y frías reglas de la inteligencia artificial, más que por la juiciosa aplicación de pensamiento de alto nivel a problemas complejos, ¿a quién le importa?

Otro asunto digno de reflexión es la evaluación de los profesores universitarios españoles. En un litigio reciente que llegó hasta la Corte Suprema de Justicia[iii], los jueces fallaron a favor de una investigadora cuyos artículos publicados habían sido desestimados por la ANECA (la agencia gubernamental a cargo de la calidad académica de las universidades) sin leerlos. Lo que sucede es que las evaluaciones de la ANECA están basadas primordialmente en los Factores de Impacto de los Journals en los que usted haya publicado sus textos. Y ya que ese impacto ha sido convenientemente cuantificado a través de las tecnologías digitales actuales, la ANECA acatará el fallo de la Corte en ese caso particular y según parece en otros pocos[iv], pero de resto, como fervientes seguidores del dataísmo[v], seguirán evaluando el trabajo académico reduciendo tanto como sea posible el rol de las valoraciones humanas. El solo número de citas dirá la verdad “y nada más que la verdad”.

¿Llegará el día en que la gente pueda ser encarcelada preventivamente a causa de algún coeficiente de propensión al delito, calculado por el último avance en materia de software? ¿Vamos rumbo a alguna especie de reedición en la vida real de la película Sentencia Previa[vi]? Es decir, si sus contribuciones académicas pueden ser discriminadas o desestimadas sin leerlas, ¿por qué no puede su comportamiento ser igualmente discriminado, castigado —o prevenido— sin necesidad de complejas evaluaciones sobre su carácter y motivaciones, o sobre las, a menudo dudosas, evidencias disponibles? Alimentando al software con las bases de datos apropiadas en cuanto a crímenes cometidos por personas de su misma clase social, género, rango de edad, etnicidad, religión, ideología política, hábitos de consumo y... quizás hasta sus últimas búsquedas en Google o publicaciones en Facebook, seguramente será posible diseñar algún algoritmo para determinar si usted es inocente o culpable —o si será culpable en un futuro próximo—, con algún pequeño margen de error, pero de un modo increíblemente más rápido y barato que nuestros actuales sistemas judiciales.

¿Estoy rotundamente equivocado? ¿Estoy exagerando las razones para preocuparnos? Quizás. No soy ningún experto en inteligencia artificial, big data, redes neuronales ni ningún otro sistema de conocimiento en boga. No me fío de las herramientas de autocorrección de los procesadores de palabras e inmediatamente desconfío de las personas o aparatos que pretenden ser más “listos” que todos los demás. Aún peor, se podría decir que tengo un interés creado en estos temas, porque mucho me temo que la ANECA pronto pueda desestimar ciegamente mi modesta trayectoria académica en un contexto universitario distinto, sudamericano, para más señas. En cualquier caso, lo que estoy planteando es tan solo esto: Necesitamos trabajar tanto como sea humanamente posible en pro de los principios morales, los ideales morales, la promoción de las virtudes morales y cívicas o la ética, antes de que la eventual fusión de algunas gigantescas corporaciones tecnológicas pueda llegar a la conclusión de que la neuroarquitectura y las capacidades de procesamiento de datos de la gente común son demasiado primitivas y obsoletas para seguir creyendo en la democracia como la mejor forma posible de gobierno. Y al decir “necesitamos” me refiero a todos aquellos que creen en la justicia y en la libertad, pero muy especialmente, a todos los profesionales que forman parte de la Asociación por la Educación Moral.   

Levy Farías


[i] Mesa, J. (2018, 14 September). España: El escándalo de los títulos falsos de los políticos. El Espectador. Retrieved from https://www.elespectador.com/noticias/el-mundo/espana-el-escandalo-de-los-titulos-falsos-de-los-politicos-articulo-812287

[ii] Europa Press (2018, 18 September). Una de las empresas antiplagio usadas en la tesis de Sánchez rebate a Moncloa: halla un 21% de contenido duplicado. 20 minutos. Retrieved from https://www.20minutos.es/noticia/3442734/0/tesis-pedro-sanchez-plagscan-empresas-antiplagio-moncloa-detecta-contenido-duplicado/

[iii] Aunión, J.A. (2018, 18 September). La justicia obliga a leer los trabajos para acreditar los méritos de investigación en la Universidad. El Supremo da la razón a una profesora y dice que no basta con tener en cuenta la revista en la que se publican los estudios. El País. Retrieved from https://elpais.com/sociedad/2018/09/18/actualidad/1537270842_896963.html

[iv] Idem.

[v] Harari, Y. N. (2016, 1st September), ‘Homo Sapiens is an obsolete algorithm’: Yuval Noah Harari on how data could eat the world. Wired. Retrieved from https://www.wired.co.uk/article/yuval-noah-harari-dataism

[vi] See https://www.imdb.com/title/tt0181689/. – Levy Farías