Ο ΟΗΕ προειδοποιεί ότι η Τεχνητή Νοημοσύνη μπορεί να απειλήσει τα ανθρώπινα δικαιώματα
Ο ΟΗΕ προειδοποιεί ότι η Τεχνητή Νοημοσύνη μπορεί να απειλήσει τα ανθρώπινα δικαιώματα

29/09/2021
Τα Ηνωμένα Έθνη επιδιώκουν προσωρινή απαγόρευση τεχνολογιών τεχνητής νοημοσύνης, όπως αναγνώριση προσώπου και αυτοματοποιημένα συστήματα λήψης αποφάσεων για τη δημιουργία εγγυήσεων, προκειμένου να αποφευχθεί η κατάχρηση νέων τεχνολογιών.
Τα Ηνωμένα Έθνη (ΟΗΕ) προειδοποιούν ότι οι τεχνολογίες τεχνητής νοημοσύνης όπως η αναγνώριση προσώπου μπορούν να αποτελέσουν τεράστια απειλή για τα ανθρώπινα δικαιώματα. Ο ΟΗΕ ζήτησε να επιβληθούν αυστηροί περιορισμοί κατά των τεχνολογιών τεχνητής νοημοσύνης που έχουν τη δυνατότητα να αποτελέσουν αρνητική και καταστροφική απειλή για τα ανθρώπινα δικαιώματα.
Σύμφωνα με τον ΟΗΕ, διεξάγεται ενδελεχής έρευνα για τον εντοπισμό των κινδύνων που δημιουργούνται λόγω της υιοθέτησης τεχνολογιών τεχνητής νοημοσύνης που σχετίζονται με την ελευθερία κυκλοφορίας της έκφρασης και το δικαίωμα στην ιδιωτική ζωή.
Η Michelle Bachelet, Ύπατη Αρμοστής των Ηνωμένων Εθνών για τα Ανθρώπινα Δικαιώματα, δήλωσε: «Οι τεχνολογίες τεχνητής νοημοσύνης μπορεί να έχουν αρνητικές, ακόμη και καταστροφικές συνέπειες εάν χρησιμοποιηθούν χωρίς επαρκή σημασία για το πώς επηρεάζουν τα ανθρώπινα δικαιώματα των ανθρώπων».
Η ακατάλληλη εφαρμογή των τεχνολογιών τεχνητής νοημοσύνης έχει οδηγήσει σε άδικη άρνηση πρόσβασης στους ανθρώπους σε παροχές κοινωνικής ασφάλισης και έχει προκαλέσει χάος στο κοινό, με αθώους ανθρώπους να συλλαμβάνονται για ελαττωματικά συστήματα αναγνώρισης προσώπου. Πρέπει να εφαρμοστούν οι κατάλληλες εγγυήσεις για να αποφευχθεί η κατάχρηση νέων τεχνολογιών, δήλωσε η Bachelet.
Ο ΟΗΕ αποδέχεται τις δυνατότητες της τεχνητής νοημοσύνης για να κάνει τη ζωή των ανθρώπων ευκολότερη, αλλά εγείρει ανησυχίες σχετικά με τις αυτοματοποιημένες τεχνολογίες λήψης αποφάσεων. Οι δηλώσεις του ΟΗΕ ήρθαν αμέσως μετά τη δημοσίευση έκθεσης σχετικά με τις επιπτώσεις των τεχνολογιών τεχνητής νοημοσύνης στο δικαίωμα των ανθρώπων στην ιδιωτικότητα, την ελευθερία, την εκπαίδευση και την υγεία.
«Η πολυπλοκότητα του περιβάλλοντος δεδομένων, οι αλγόριθμοι και τα μοντέλα που βασίζονται στην ανάπτυξη και τη λειτουργία των συστημάτων τεχνητής νοημοσύνης, καθώς και η σκόπιμη ιδιωτικότητα των κυβερνητικών και ιδιωτικών παραγόντων, είναι παράγοντες που υπονομεύουν τους ουσιαστικούς τρόπους για το κοινό να κατανοήσει τις επιπτώσεις των συστημάτων τεχνητής νοημοσύνης στον άνθρωπο δικαιώματα και κοινωνία», ανέφερε η έκθεση του ΟΗΕ.
Ένας αξιωματούχος για τα ανθρώπινα δικαιώματα στο κράτος δικαίου και δημοκρατίας, ο Tim Engelhardt, επεσήμανε επίσης τη σοβαρότητα του ζητήματος λέγοντας ότι η κατάσταση επιδεινώθηκε την τελευταία δεκαετία, καθώς ορισμένες χώρες δεν εξετάζουν τη δημόσια ασφάλεια πριν υιοθετήσουν νέες τεχνολογίες τεχνητής νοημοσύνης.
Μοιραστείτε το με τους φίλους σας:
Αγαπητοί φίλοι της σελίδας, παρακαλούμε να είστε ευγενικοί και κόσμιοι στις εκφράσεις σας, με σεβασμό, κατανόηση
και αξιοπρέπεια, προς τους συνανθρώπους μας, όπως αρμόζει σε λογικούς ανθρώπους, αλλά και σε ενσυνείδητους
Χριστιανούς οι οποίοι κάνουν πράξη τον Ευαγγελικό λόγο, «Αγαπάτε αλλήλους».
Φυλάξτε το στόμα σας, από λόγια περιττά, πικρόχολα, ανώφελα, ασκηθείτε στην προσευχή του Ιησού, εγκρατευθείτε
και ο Κύριος θα σας περιβάλλει με το ανεκτίμητο δώρο της αγάπης Του.
Οι απόψεις της ιστοσελιδας μπορεί να μην ταυτίζονται με τα περιεχόμενα του άρθρου.
Τα άρθρα που δημοσιεύονται εδώ, ουδεμία ευθύνη εκ του νόμου φέρουμε καθώς εκφράζουν αποκλειστικά τις απόψεις των
συντακτών τους και δεν δεσμεύουν με οποιοδήποτε τρόπο την ιστοσελιδα.
Οι διαχειριστές της ιστοσελιδας δεν ευθύνονται για τα σχόλια και τους δεσμούς που περιλαμβάνει.
Κάθε γνώμη είναι σεβαστή, αρκεί να αποφεύγονται ύβρεις, ειρωνείες και προσβλητικοί χαρακτηρισμοί, γενικά και
εναντίον των συνομιλητών ή των συγγραφέων.
Μην δημοσιεύετε άσχετα σχόλια με το θέμα.
Με βάση τα παραπάνω με λύπη θα αναγκαζόμαστε να διαγράφουμε τα απρεπή και βλάσφημα σχόλια τα οποία δεν αρμόζουν
στον χαρακτήρα και στο ήθος της σελίδας μας χωρίς καμία άλλη προειδοποίηση.