Il contributo analizza le implicazioni giuridiche dell’impiego di sistemi predittivi nella pubblica amministrazione nel campo della protezione dei dati personali, mettendo in luce le tensioni che essi generano rispetto ai principi di legalità, trasparenza, responsabilità ed eguaglianza. Muovendo da una lettura sostanziale dell’art. 22 GDPR, integrata con gli obblighi di supervisione umana introdotti dall’AI Act, il saggio vuole dimostrare come l’automazione decisionale rimodelli il potere amministrativo e metta in discussione la sua intelligibilità e imputabilità. L’analisi, quindi, propone una ricostruzione dogmatica fondata sull’idea che la responsabilità organizzativa e il controllo umano costituiscano condizioni essenziali di una legalità algoritmica dell’azione amministrativa, nella quale la protezione dei dati e l’eguaglianza sostanziale convergono in un’unica architettura di garanzie.
The paper analyses the legal implications of the use of predictive systems within public administration in the field of personal data protection, highlighting the tensions they generate with regard to the principles of legality, transparency, accountability, and substantive equality. Building on a substantive reading of Article 22 of the GDPR, integrated with the human oversight obligations introduced by the AI Act, the study aims to demonstrate how automated decision-making reshapes administrative power and calls into question its intelligibility and imputability. The analysis therefore proposes a dogmatic reconstruction based on the idea that organisational accountability and human control constitute essential conditions for the algorithmic legality of administrative action, in which data protection and substantive equality converge within a single architecture of safeguards.
