Κανονισμοί στην τεχνητή νοημοσύνη. Γιατί;

Ρομποτ κοιτάει την κάμερα

Ποτέ ίσως στην ιστορία της τεχνολογικής εξέλιξης καμία τεχνολογία δεν έχει αντιμετωπιστεί με τόσο σκεπτικισμό όπως η τεχνητή νοημοσύνη. Αν και όλες σχεδόν οι πλευρές παραδέχονται ότι η εφαρμογή του ΑΙ θα είναι εξαιρετικά επωφελής σε διάφορα πεδία, από την ιατρική έως τις μεταφορές και από την ενέργεια έως ακόμα και την κατανάλωση φυσικών πόρων, όπως το νερό, η διεθνής κοινότητα ταυτόχρονα δείχνει μια μεγάλη θέρμη να θέσει τα όρια, προκειμένου να αποφευχθούν φαινόμενα καταχρηστικής εφαρμογής. Όχι, ο κίνδυνος δεν είναι θεωρητικός, υπάρχει ένας εκτεταμένος προβληματισμός για τις άμεσες επιπτώσεις από την αυτοματοποίηση και τα συστήματα μηχανικής μάθησης στους ανθρώπους. Κάμερες αναγνώρισης προσώπου για τη διάκριση πληθυσμών και ανθρώπων, αυτόνομα συστήματα δημιουργίας προφίλ σε ποινικές υποθέσεις, έως και αυτόνομα όπλα είναι μερικές από πιθανές καταχρηστικές εφαρμογές της τεχνητής νοημοσύνης.

Η πρώτη κοινότητα που προσπάθησε να θέσει τις βάσεις στην ανάπτυξη της τεχνητής νοημοσύνης ήταν η επιστημονική, πίσω στο 2017. Διακεκριμένοι επιστήμονες από διάφορους κλάδους κατέληξαν το 2017 σε μια σειρά οδηγιών, όπως η ομαλή συνεργασία μεταξύ τους, η αποφυγή ανούσιου ανταγωνισμού, τα οφέλη να μοιράζονται ευρύτερα σε όσο το δυνατόν περισσότερους ανθρώπους, ακόμα και η αποφυγή μιας κούρσας εξοπλισμών για την ανάπτυξη θανατηφόρων αυτόνομων όπλων (ολόκληρη η λίστα των οδηγιών είναι εδώ).

Στο ίδιο πνεύμα έχουν κινηθεί και αρκετά κράτη, όμως πιο χαρακτηριστικό παράδειγμα είναι η Ευρωπαϊκή Ένωση. Ένα χρόνο πριν η Ευρωπαϊκή Ένωση έθεσε τις αρχές πάνω στις οποίες πρέπει να χτίζεται κάθε σύστημα τεχνητής νοημοσύνης:

– Καμία παραβίαση θεμελιωδών ανθρωπίνων δικαιωμάτων. Η αξιολόγηση θα πρέπει να υλοποιείται πριν την εφαρμογή της ανάπτυξης και θα πρέπει να δημιουργηθεί ένας ισχυρός μηχανισμός αντίδρασης στο ενδεχόμενο μιας παραβίασης.

– Οι χρήστες και οι τελικοί καταναλωτές πρέπει να κατανοούν και να αλληλεπιδρούν σε ένα ικανοποιητικό βαθμό με τα AI συστήματα και έχουν δικαίωμα να μην υπόκεινται σε μια απόφαση που θα βασίζεται αποκλειστικά σε μια αυτοματοποιημένη διαδικασία.

– Μία μηχανή δεν μπορεί να έχει τον αποκλειστικό έλεγχο και θα πρέπει να υπάρχει πάντα ανθρώπινη επίβλεψη. Επιπρόσθετα, κατά το σχεδιασμό ενός προϊόντος ή υπηρεσίας ΑΙ, οι δημιουργοί θα πρέπει να εξασφαλίζουν αυτήν την ανθρώπινη εποπτεία.

Αντίθετα με αυτό που ίσως θα περιμέναμε είναι πολλές και οι εταιρείες που ασπάζονται την ανάγκη ρύθμισης της τεχνητής νοημοσύνης. Ένα από τα πιο χαρακτηριστικά τέτοια παραδείγματα είναι η περίπτωση της Google, η οποία μέσω του επικεφαλής της, Sundar Pichai, ζήτησε ανοικτά μόλις τον προηγούμενο μήνα την ανάγκη δημιουργίας κανονισμών λειτουργίας.

Όπως σημειώνει σε άρθρο του ο Sundar Pichai η ιστορία είναι γεμάτη παραδείγματα στα οποία οι αρετές της τεχνολογίας δεν ήταν πάντα το ζητούμενο (ένα από τα παραδείγματα ήταν η αύξηση της παραπληροφόρησης από τα social media και το Internet), από τα οποία θα πρέπει να διδαχθούμε ότι κάτι μπορεί να πάει στραβά και στη τεχνητή νοημοσύνη. Μάλιστα, ακόμα και σήμερα που δεν βρισκόμαστε στην ακμή του ΑΙ έχουμε δει καταχρηστικές τέτοιες εφαρμογές, όπως τα deepfake βίντεο ή οι λύσεις αναγνώρισης προσώπου. Στο μέλλον θα υπάρξουν ακόμα περισσότερες προκλήσεις, που σύμφωνα με τον ίδιο δεν θα μπορέσει να τις λύσει μόνη της μια εταιρεία ή ακόμα και ένας ολόκληρος κλάδος, με αποτέλεσμα να είναι απαραίτητη μια παγκόσμια συμφωνία σχετικά με τις βασικές αξίες που θα πρέπει να πρεσβεύει η τεχνητή νοημοσύνη.

Από την πλευρά των εταιρειών και όχι μόνο η ρύθμιση και οι κανονισμοί λειτουργίας θα λειτουργήσουν και υπέρ της καινοτομίας, της προόδου, αλλά και της ίδιας της τεχνολογίας. Η πορεία προς τα εμπρός δεν είναι απαραίτητα μια πλήρης απελευθέρωση ή ολικές απαγορεύσεις, αλλά μία έξυπνη και προορατική ρύθμιση που δημιουργεί ένα πλαίσιο τόσο για την προστασία των πολιτών όσο και για την ανάπτυξη της καινοτομίας.

print this page

Βαθμολογήστε αυτό το άρθρο

Σχετικά άρθρα

Scroll to Top
X
Μετάβαση στο περιεχόμενο