Techlog.gr

Χρήσιμα νέα τεχνολογίας

Η OpenAI θέτει όρια ασφαλείας στην τεχνητή νοημοσύνη

1 min read
OpenAI techlog | Techlog.gr - Χρήσιμα νέα τεχνολογίας
0
(0)

Loading

Η εταιρεία τεχνητής νοημοσύνης OpenAI έθεσε ένα πλαίσιο για την αντιμετώπιση της ασφάλειας στα πιο προηγμένα μοντέλα της, συμπεριλαμβανομένου του να επιτρέπει στο διοικητικό συμβούλιο να ανατρέπει τις αποφάσεις ασφαλείας, σύμφωνα με ένα σχέδιο που δημοσιεύθηκε στον ιστότοπό της τη Δευτέρα.

Η Microsoft που υποστηρίζει την OpenAI θα αναπτύξει την τελευταία της τεχνολογία μόνο εάν κριθεί ασφαλής σε συγκεκριμένους τομείς, όπως η ασφάλεια στον κυβερνοχώρο και οι πυρηνικές απειλές. Η εταιρεία δημιουργεί επίσης μια συμβουλευτική ομάδα που θα εξετάζει τις εκθέσεις ασφαλείας και θα τις αποστέλλει στα στελέχη και το διοικητικό συμβούλιο της εταιρείας. Ενώ τα στελέχη θα λαμβάνουν αποφάσεις, το διοικητικό συμβούλιο μπορεί να ανατρέψει αυτές τις αποφάσεις.

Από την έναρξη του ChatGPT πριν από ένα χρόνο, οι πιθανοί κίνδυνοι της Τεχνητής Νοημοσύνης έχουν απασχολήσει τόσο τους ερευνητές της Τεχνητής Νοημοσύνης όσο και το ευρύ κοινό. Ιδίως η Generative AI έχει θαμπώσει τους χρήστες με την ικανότητά της να γράφει ποίηση και δοκίμια, αλλά έχει επίσης προκαλέσει ανησυχίες για την ασφάλεια με τη δυνατότητά της να διαδίδει παραπληροφόρηση και να χειραγωγεί ανθρώπους.

Τον Απρίλιο, μια ομάδα ηγετών και εμπειρογνωμόνων της βιομηχανίας τεχνητής νοημοσύνης υπέγραψε ανοιχτή επιστολή, ζητώντας εξάμηνη παύση στην ανάπτυξη συστημάτων ισχυρότερων από το GPT-4 του OpenAI, επικαλούμενη πιθανούς κινδύνους για την κοινωνία. Μια δημοσκόπηση του Μαΐου του Reuters/Ipsos δημοσκόπηση διαπίστωσε ότι περισσότερα από τα δύο τρίτα των Αμερικανών ανησυχούν για τις πιθανές αρνητικές επιπτώσεις της τεχνητής νοημοσύνης και το 61% πιστεύει ότι θα μπορούσε να απειλήσει τον πολιτισμό.

via

How useful was this post?

Click on a star to rate it!

Average rating 0 / 5. Vote count: 0

No votes so far! Be the first to rate this post.

About The Author

Δείτε ακομα