Η τεχνητή νοημοσύνη έχει αλλάξει δραματικά το τοπίο της τεχνολογίας, όμως η εξέλιξή της φέρνει και μια νέα, ανησυχητική πραγματικότητα: τη χρήση της ως εργαλείο εγκληματικής δραστηριότητας. Τα πρώτα δείγματα είναι ήδη ορατά, από εξελιγμένες απάτες deepfake έως αυτοματοποιημένες κυβερνοεπιθέσεις μεγάλης κλίμακας. Όπως επισημαίνει το Axios, η νέα γενιά εγκλήματος θέτει σε κίνδυνο ζωές, υποδομές και οικονομικά συστήματα, την ώρα που η αστυνόμευση και η νομοθεσία δυσκολεύονται να συμβαδίσουν με τον ρυθμό τεχνολογικής εξέλιξης.

Φθηνά, εύκολα και προσβάσιμα μέσα για εγκληματίες

Ένα από τα στοιχεία που καθιστούν την τεχνητή νοημοσύνη επικίνδυνη στα χέρια εγκληματικών ομάδων είναι το εξαιρετικά χαμηλό κόστος χρήσης της. Τα εύχρηστα εργαλεία ΑΙ μειώνουν τις απαιτήσεις σε εξειδικευμένες δεξιότητες και επιτρέπουν σε μικρά σχήματα να εκτελούν επιθέσεις που στο παρελθόν απαιτούσαν τεράστιους πόρους.

Χάρη στους κλώνους φωνής και την παραβίαση λογαριασμών, ομάδες μπορούν να στοχεύσουν χιλιάδες θύματα ταυτόχρονα, ενώ οι αστυνομικές υπηρεσίες παραμένουν διαρθρωμένα προσανατολισμένες στη διαχείριση μιας υπόθεσης τη φορά. Ο φουτουριστής Ίαν Χαν ανέφερε ότι η τεχνητή νοημοσύνη επιτρέπει αυτοματισμούς που μπορούν να «κλειδώνουν» επιλογές σε ένα σύστημα εκατομμύρια φορές ανά δευτερόλεπτο, επίδοση αδύνατη για ανθρώπινη παρέμβαση.

Μαζικές παραβιάσεις ταυτότητας και κρίσιμων υποδομών

Από τη στιγμή που οι χάκερ αποκτήσουν πρόσβαση σε ένα σύστημα, η τεχνητή νοημοσύνη μπορεί να αναλάβει τα υπόλοιπα: κλοπή ταυτοτήτων, παράνομη μεταφορά κεφαλαίων, χειραγώγηση αποθεμάτων και παρεμβάσεις σε μονάδες ύδρευσης, «έξυπνα» σπίτια και νοσοκομεία.
Οι επιθέσεις μπορούν να εκτοξευθούν από οποιοδήποτε σημείο του πλανήτη, ενισχύοντας τη δυσκολία εντοπισμού τους.

Οι ψεύτικες φωνές –μια τεχνολογία που εξελίσσεται εκθετικά– είναι ικανές να πείσουν θύματα να παραδώσουν χρήματα ή ευαίσθητα δεδομένα. Οι κλεμμένες ταυτότητες μπορούν να χρησιμοποιηθούν ακόμη και για εκλογική απάτη, παιδική πορνογραφία ή στοχοποίηση πολιτών με ψευδείς κατηγορίες.

Κρατικοί χάκερ και αυτοματοποιημένες επιθέσεις

Τον Σεπτέμβριο, η εταιρεία Anthropic αποκάλυψε ότι Κινέζοι χάκερ χρησιμοποίησαν εργαλεία ΑΙ για την αυτοματοποίηση παραβιάσεων εταιρειών και κυβερνήσεων. Σύμφωνα με την εταιρεία, πρόκειται για την πρώτη καταγεγραμμένη κυβερνοεπίθεση μεγάλης κλίμακας που εκτελέστηκε σχεδόν χωρίς ανθρώπινη παρέμβαση. Η Anthropic υποστηρίζει ότι οι δράστες είχαν κρατική υποστήριξη.

Deepfake απάτες: Έκρηξη 3.000% μέσα σε ένα έτος

Η εταιρεία κυβερνοασφάλειας DeepStrike εκτιμά ότι οι απόπειρες απάτης deepfake αυξήθηκαν κατά 3.000% μέσα στο 2023. Παράλληλα, η Deloitte προβλέπει ότι οι απώλειες από απάτες τεχνητής νοημοσύνης στις ΗΠΑ θα φτάσουν τα 40 δισ. δολάρια έως το 2027.

Τα δεδομένα είναι αποκαλυπτικά:

  • Μία επίθεση deepfake σημειώθηκε κάθε πέντε λεπτά παγκοσμίως το 2024.

  • Οι πλαστογραφήσεις ψηφιακών εγγράφων αυξήθηκαν κατά 244% σε σχέση με το προηγούμενο έτος, σύμφωνα με το Ινστιτούτο Cybersecurity Entrust.

  • Η παραγωγική ΑΙ επιτάχυνε την εξάπλωση απάτης «συνθετικής ταυτότητας», ιδιαίτερα σε συναλλαγές πραγματικού χρόνου, σύμφωνα με την Ομοσπονδιακή Τράπεζα της Βοστόνης.

ΑΙ και «μικροεγκληματικότητα»: το μέλλον φαίνεται δυσοίωνο

Οι ειδικοί προειδοποιούν ότι η τεχνητή νοημοσύνη δεν ενισχύει μόνο το οργανωμένο έγκλημα, αλλά και τη μικροεγκληματικότητα.
Ανάμεσα στα σενάρια που περιγράφουν φουτουριστές:

  • drones που υπολογίζουν ιδανικά σημεία για απόκρυψη πτωμάτων,

  • ρομποτικά σκυλιά που διαρρήγνουν σπίτια,

  • αυτοκίνητα που παραβιάζονται και «φεύγουν» μόνα τους για να προκαλέσουν ζημιές ή κλοπές,

  • ΑΙ συστήματα που υποδεικνύουν τον ευκολότερο τρόπο διάρρηξης οχήματος.

Όπως σημειώνουν, ελάχιστες –αν όχι καμία– αστυνομικές υπηρεσίες στον κόσμο εκπαιδεύουν στελέχη για τέτοιου είδους περιστατικά.

Η ανάγκη για διεθνή συνεργασία και εκπαίδευση

Η φύση των επιθέσεων αυτών απαιτεί διασυνοριακή συνεργασία. Στις ΗΠΑ, η αστυνομική ακαδημία του Miami Dade College ανακοίνωσε ότι θα εντάξει ειδικό εργαλείο ΑΙ για την εκπαίδευση δοκίμων. Το Φόρουμ Έρευνας Εκτελεστικής Αστυνομίας (PERF) καλεί πλέον τις υπηρεσίες να αναπτύξουν νέες πολιτικές, διαδικασίες και εκπαιδεύσεις, καθώς η τεχνητή νοημοσύνη γίνεται αναπόσπαστο κομμάτι της καθημερινότητας.

Το μήνυμα των ειδικών είναι σαφές: ο κόσμος μπαίνει σε μια νέα εποχή εγκλήματος, όπου η τεχνητή νοημοσύνη πολλαπλασιάζει την ισχύ των επιθέσεων και μειώνει τον χρόνο αντίδρασης. Και τα κράτη πρέπει να προσαρμοστούν άμεσα.

ΠΗΓΗ: in.gr