Γράφει η Χριστίνα Κύλλα, Αναδημοσίευση από το www.liberal.gr
Η Τεχνητή Νοημοσύνη διεκδικεί δυναμικά πλέον τη θέση της σε κάθε τομέα της ανθρώπινης δραστηριότητας. Οι έννοιες των λογισμικών AI (Αrtificial Ιntelligence), των νευρωνικών δικτύων και της μηχανικής μάθησης εμφανίζουν ραγδαία ανάπτυξη και όλο περισσότερες εταιρίες ανά τον κόσμο διεκδικούν τη χρήση τους για λόγους ασφαλείας και όχι μόνο.
Το ερώτημα που έχει τεθεί τα τελευταία χρόνια είναι αν τα συστήματα Τεχνητής Νοημοσύνης θα μπορούσαν να συμβάλλουν στην πρόληψη του εγκλήματος αποτελώντας στο μέλλον ένα μόνιμο κομμάτι του εγκληματικού οικοσυστήματος.
Αρχικά, η τεχνολογία ΑΙ παρουσιάζεται ως ένα ισχυρό εργαλείο στα χέρια των αρχών στο τομέα του οικονομικού εγκλήματος. Πιο συγκεκριμένα οι αλγόριθμοι της μηχανικής μάθησης (machine learning) που αποτελεί ένα λογισμικό Τεχνητής Νοημοσύνης, παίζει ζωτικό ρόλο στην αντιμετώπιση εγκλημάτων όπως σε υποθέσεις ηλεκτρονικού ψαρέματος (phising), στην περίπτωση κλοπών ταυτότητας καθώς και σε άλλα είδη απατηλών δραστηριοτήτων.
Όλως ενδεικτικά, το λεγόμενο machine learning διαθέτει αλγόριθμους ικανούς να εντοπίζουν τυχόν ανωμαλίες και παρεκκλίσεις στο πάγιο μοτίβο συναλλαγών και διατραπεζικών συναλλαγών. Είναι δηλαδή σε θέση να προβλέπει, να ανιχνεύει απατηλές δραστηριότητες επίδοξων κυβερνοεγκληματιών.
Ωστόσο, πολλές εταιρίες δημιουργίας λογισμικού Τεχνητής Νοημοσύνης επιδιώκουν τα τελευταία χρόνια την επέκταση της χρήσης της από τις αστυνομικές αρχές στην πρόληψη μιας ευρείας γκάμας εγκλημάτων.
Η ιδέα πίσω από το συγκεκριμένο εγχείρημα έγκειται στην άποψη πως το έγκλημα σε πολλές περιπτώσεις είναι προβλέψιμο ιδίως σε περιπτώσεις εγκληματιών που δρουν έχοντας ένα συγκεκριμένο modus operandi.
Υποστηρίζεται δηλαδή, πως με την τροφοδότηση των συστημάτων ΑΙ με ένα τεράστιο όγκο δεδομένων για μία σειρά από τελεσθέντα εγκλήματα (στοιχεία για τον τόπο, χρόνο που έλαβαν χώρα, το προφίλ των θυμάτων) οι αρχές θα είναι σε θέση να προβλέψουν ορισμένες ζώνες κινδύνου οπού υπάρχει πιθανότητα να τελεσθεί το επόμενο έγκλημα, προκειμένου να το αποτρέψουν.
Ειδικότερα, στον τομέα των ένοπλων ληστειών, εταιρία χρησιμοποίησε ένα λογισμικό Τεχνητής Νοημοσύνης το Shotspotter. Το εν λόγω λογισμικό χρησιμοποιήθηκε από αστυνομικές υπηρεσίες στην Αμερική για την αντιμετώπιση τέτοιου είδους εγκλημάτων και όχι μόνο.
Το συγκεκριμένο λογισμικό λειτουργεί μέσω των αισθητήρων, που εγκαθίστανται σε διάφορα σημεία πόλης. Με αυτό οι αρχές ήταν σε θέση εφόσον λάμβανε χώρα πυροβολισμός να ανιχνεύσουν την ακριβή τοποθεσία που έλαβε χώρα συγκρίνοντας τα δεδομένα που λάμβαναν από τους αισθητήρες με στόχο τον άμεσο εντοπισμό των δραστών.
Πολλοί δήλωσαν τις επιφυλάξεις τους αναφορικά με το συγκεκριμένο πρόγραμμα, κυρίως όσον αφορά την πιθανή παραβίαση της ιδιωτικότητας τους σε περίπτωση που οι συγκεκριμένοι αισθητήρες μπορούσαν να πιάσουν και άλλους ήχους όπως την ανθρώπινη ομιλία.
Η Τεχνητή Νοημοσύνη μέσω της μηχανικής μάθησης και όχι μόνο, θεωρείται πως μπορεί να συμβάλει στην προστασία παιδιών από τους σεξουαλικούς δράστες που προσπαθούν να προσελκύσουν ανηλίκους στο διαδίκτυο.
Ειδικότερα, οι αστυνομικές αρχές τείνουν να χρησιμοποιούν προγράμματα ΑΙ τα οποία αφού έχουν εμπλουτιστεί με ένα τεράστιο όγκο δεδομένων για τον τρόπο δράσης των εν λόγω δραστών, είναι σε θέση να ανιχνεύουν περίεργες διαδικτυακές συμπεριφορές ή να εντοπίζουν λέξεις ή φράσεις που τείνουν οι εν λόγω εγκληματίες να χρησιμοποιούν.
Επίσης, εντοπίζοντας και αναλύοντας φωτογραφίες και βίντεο κακοποιημένων παιδιών προσδοκάται πως μέσω λογισμικού ΑΙ θα είναι πιο εύκολος ο εντοπισμός θυμάτων αλλά και των δραστών.
Στις ως άνω περιπτώσεις με εξαίρεση τις επιφυλάξεις για το πρόγραμμα shotspotter, η Τεχνητή Νοημοσύνη χρησιμοποιείται ως θεμιτό και αποκλειστικά βοηθητικό εργαλείο των αρχών για την πάταξη του εγκλήματος.
Ωστόσο, τα πράγματα αλλάζουν όταν η Τεχνητή Νοημοσύνη από ένα απλό εργαλείο τρέπεται σε μία αυθεντία, υποκαθιστώντας επί της ουσίας τις αστυνομικές και δικαστικές αρχές. Ειδικότερα η κινεζική εταιρεία Cloudwalk δημιούργησε ένα σύστημα αναγνώρισης προσώπου (face recognition system) το οποίο ανέφερε πως θα είναι χρήσιμο εργαλείο στα χέρια των αρχών.
Το εν λόγω σύστημα ΑΙ υπόσχεται τον εντοπισμό υπόπτων μέσα από την ανάλυση των κινήσεων ενός ατόμου, καθώς και των λεγόμενων microexpressions (μικροεκφράσεων).
Αντίστοιχα, όλο και περισσότερες αστυνομικές αρχές σε πολιτείες των ΗΠΑ χρησιμοποιούν το δεύτερο καλύτερο λογισμικό αναγνώρισης προσώπου στον κόσμο το λεγόμενο Clearview Αi.
Το συγκεκριμένο σύστημα Τεχνητής Νοημοσύνης διαθέτει μία τεράστια βάση δεδομένων με 3 δισεκατομμύρια εικόνες πολιτών από όλο τον πλανήτη.
Τις εικόνες αυτές τις αντλεί από τα social media, από ηλεκτρονικές εφημερίδες και από κάθε μέσο στο διαδίκτυο οπού μπορεί να απεικονίζονται εικόνες ατόμων αρκεί αυτές οι εικόνες έστω και για μικρό χρονικό διάστημα να είχαν αναρτηθεί δημόσια.
Όποιος κατέχει αυτό το λογισμικό μπορεί ανεβάζοντας τη φωτογραφία ενός οποιουδήποτε ατόμου στο Clearview να εντοπίσει μία πληθώρα στοιχείων για τη ζωή του εν λόγω ατόμου και την ταυτότητα του.
Το εξαιρετικά ανησυχητικό είναι πως ακόμα και αν ένα άτομο έχει βγει σε μια φωτογραφία χωρίς να το γνωρίζει, το εν λόγω σύστημα Τεχνητής Νοημοσύνης αξιοποιώντας εκείνα τα βιομετρικά στοιχεία του προσώπου που μένουν αναλλοίωτα στο χρόνο μπορεί να το ανιχνεύσει.
Στην Αμερική αν και ζητήθηκε από τις αστυνομικές αρχές να πάψουν αν το χρησιμοποιούν πριν τεθούν κανόνες για τη χρήση του, η κατάσταση δυστυχώς δεν άλλαξε. Φωτογραφίες εκατομμυρίων ατόμων μέχρι και σήμερα, ακόμα και από την Ευρώπη, συγκεντρώνονται εν αγνοία τους από την εν λόγω εταιρεία χωρίς κανείς να γνωρίζει μετά βεβαιότητας, αν ενδεχομένως τα μεταπωλεί σε άλλες εταιρίες.
Ο νομικός ισχυρισμός της είναι ουσιαστικά πως εφόσον ένα άτομο βγήκε φωτογραφία και αυτή αναρτήθηκε δημόσια στο διαδίκτυο, απεμπόλησε κάθε δικαίωμα του πάνω στην εικόνα του και έδωσε τη συγκατάθεση του για τη χρήση της. Το εν λόγω επιχείρημα, μαρτυρά πόσο ευάλωτα είναι τα ευαίσθητα δεδομένα ενός ατόμου.
Αδιαμφισβήτητα συγκατάθεση δε, μπορεί να υφίσταται χωρίς το άτομο να γνωρίζει την ταυτότητα εκείνου που επεξεργάζεται τα δεδομένα του και χωρίς να μπορεί ανά πάσα στιγμή να αρνηθεί τη χρήση ή να ζητήσει την αφαίρεση των προσωπικών του δεδομένων.
Σε επίπεδο δικαστικών αρχών έχουν εφευρεθεί εργαλεία Τεχνητής Νοημοσύνης όπως το Correctional Offender Management Profiling Offender for Alternative Sactions που είναι σε θέση να αξιολογεί αντί των δικαστών και των ειδικών επιστημόνων τον βαθμό επικινδυνότητας ενός ατόμου προκειμένου να αποφασιστεί αν οι καταδικασθέντες μπορούν να απολυθούν υπό όρο ή όχι.
Στις ως άνω περιπτώσεις παρατηρεί κανείς το επικίνδυνο τρόπο χρήσης της Τεχνητής Νοημοσύνης που καθιστά αναγκαία τη θέσπιση νόμων και κανόνων για τη διασφάλιση της ιδιωτικότητας του ατόμου καθώς και των ευαίσθητων προσωπικών τους δεδομένων.
Τα λογισμικά Τεχνητής Νοημοσύνης μπορούν να αποτελούν ένα βοηθητικό εργαλείο των αρχών για την ανάλυση εγκλημάτων και ίσως την πρόληψη μιας νέας εγκληματικής πράξης μαζί με άλλα εργαλεία που θα έχει η αστυνομία στη διάθεση της.
Είναι ωστόσο εξαιρετικά επικίνδυνο ένα σύστημα τεχνολογίας ΑΙ να υποκαθιστά την ανθρώπινη κρίση και να υποδεικνύει ενόχους και με βάσει την κρίση αυτή του λογισμικού χωρίς περαιτέρω έρευνα ένα άτομο να θεωρείται ως ο δράστης της τελεσθείσας πράξης.
Επιπρόσθετα, επειδή ακριβώς τα εν λόγω λογισμικά τροφοδοτούνται από δεδομένα που κάποιο άτομο εισάγει, ενυπάρχει ο κίνδυνος τα δεδομένα που θα εισάγονται, να εμπεριέχουν προκαταλήψεις για συγκεκριμένες ομάδες ατόμων, με αποτέλεσμα το ίδιο το σύστημα ΑΙ να επιλέγει άτομα ως υπόπτους με βάσει αυτά τα προβληματικά δεδομένα.
Τέλος, σε επίπεδο δικαστικών αρχών δε, μπορεί στο ελληνικό δικανικό σύστημα αλλά και σε ευρωπαϊκό επίπεδο να γίνει δεκτό πως ένα λογισμικό θα αξιολογεί ως αυθεντία αν ένα πρόσωπο αποτελεί κίνδυνο για την κοινωνία με βάση το παρελθόν του και το μητρώο του.
Αυτό, διότι η ανθρώπινη προσωπικότητα είναι πολυσύνθετη, περίπλοκη και πολλοί παράγοντες μπορεί να επιφέρουν αλλαγές στη συμπεριφορά ενός ατόμου καθιστώντας ένα δράστη επανεντάξιμο στην κοινωνία.
Σε επίπεδο δε δικαστηρίου, κατά τη διαδικασία προσκόμισης αποδεικτικών στοιχείων πρέπει να γίνει δεκτό πως εργαλεία Τεχνητής Νοημοσύνης ιδίως αυτά που παρουσιάζονται να εντοπίζουν δράστες δε θα πρέπει να αποτελούν ποτέ αποδεικτικό στοιχείο βάσιμο σε μία ποινική δίκη.
Τέτοιου είδους συστήματα στηρίζονται στο νόμο των πιθανοτήτων και στο δικό μας σύστημα ποινικής δικαιοσύνης απαγορεύεται ένας κατηγορούμενος να κριθεί ένοχος, εκτός αν υπάρχει πλήρης βεβαιότητα για την ενοχή του.
Πολλά ζητήματα λοιπόν εγείρονται, ιδίως αναφορικά με τις τεχνολογίες ΑΙ αναγνώρισης προσώπου, καθώς στη συγκεκριμένη περίπτωση τίθενται σε κίνδυνο η ιδιωτικότητα του ατόμου και τα προσωπικά του δεδομένα.
Γι’ αυτό σε ευρωπαϊκό επίπεδο πρόκειται να θεσπισθεί Κανονισμός για την Τεχνητή Νοημοσύνη, ο οποίος θα ισχύει παράλληλα με το ΓΚΠΔ. Σε αυτόν, τα λογισμικά βιομετρικής αναγνώρισης προσώπου θα κατατάσσονται στους μη αποδεκτούς κινδύνους της Τεχνητής Νοημοσύνης.
Κατ’ εξαίρεση θα προβλέπεται χρήση από τις αστυνομικές αρχές μετά από χορήγηση δικαστικής άδειας, λογισμικών ταυτοποίησης βιομετρικών στοιχείων σε συγκεκριμένα εγκλήματα και υπό αυστηρές προϋποθέσεις.
* Η Χριστίνα Κύλλα είναι Δικηγόρος – Εγκληματολόγος