Εφαρμογές Πληροφορικής
Κυριακή 23 Νοεμβρίου 2025
74 Quiz: Ενότητα 10 (10.3.3)- Ρύθμιση της AI στην Προστασία Προσωπικών Δεδομένων
Quiz: Ρύθμιση της AI στην Προστασία Προσωπικών Δεδομένων (25 Ερωτήσεις)
Ρύθμιση της AI στην Προστασία Προσωπικών Δεδομένων
Σκορ: 0 / 25
1. Ποιος Κανονισμός της ΕΕ τέθηκε σε ισχύ το 2018 και πλέον ενισχύεται με AI-specific τροποποιήσεις;
Ο Κανονισμός για την Τεχνητή Νοημοσύνη (AI Act).
Ο Γενικός Κανονισμός για την Προστασία Δεδομένων (GDPR).
Το Cloud Act.
Το EU-U.S. Data Privacy Framework.
Ο GDPR (General Data Protection Regulation) τέθηκε σε ισχύ το 2018 και αποτελεί τη βάση που ενισχύεται για τις νέες προκλήσεις της ΤΝ.
2. Ποια αρχή απαιτεί από τους οργανισμούς να περιορίζουν την επεξεργασία προσωπικών δεδομένων στο απολύτως αναγκαίο για την εκπαίδευση και λειτουργία του μοντέλου AI;
Αρχή της Λογοδοσίας.
Αρχή της Ελαχιστοποίησης Δεδομένων.
Αρχή της Διαφάνειας.
Αρχή της Ψευδωνυμοποίησης.
Η Αρχή της Ελαχιστοποίησης Δεδομένων (Data Minimization) απαιτεί τη συλλογή και επεξεργασία μόνο των απαραίτητων δεδομένων.
3. Ποια τεχνική εφαρμόζουν οι επιχειρήσεις ώστε τα δεδομένα να διατηρούνται σε διαχωρισμένη μορφή και να μην είναι άμεσα συνδεδεμένα με ταυτοποιήσιμα πρόσωπα;
Deepfake παραπληροφόρηση.
Ανωνυμοποίηση.
Ψευδωνυμοποίηση.
Βιομετρική αναγνώριση.
Η ψευδωνυμοποίηση διατηρεί τα δεδομένα διαχωρισμένα από την ταυτότητα του ατόμου, μειώνοντας τους κινδύνους παραβίασης, σε αντίθεση με την ανωνυμοποίηση που αφαιρεί κάθε ταυτοποιητικό στοιχείο.
4. Ποιο Άρθρο του GDPR παρέχει στους χρήστες το δικαίωμα ανθρώπινης παρέμβασης σε αποφάσεις που λαμβάνονται αποκλειστικά μέσω AI (αυτοματοποιημένη λήψη αποφάσεων);
Άρθρο 9.
Άρθρο 22.
Άρθρο 1.
Άρθρο 15.
Το Άρθρο 22 του GDPR αφορά την απαγόρευση της αυτοματοποιημένης λήψης αποφάσεων που παράγουν νομικά αποτελέσματα για το άτομο, χωρίς ανθρώπινη παρέμβαση.
5. Τι σημαίνει ο όρος "AI Explainability" (Επεξηγησιμότητα) που ενισχύεται από τον GDPR;
Οι χρήστες να κατανοούν πώς και γιατί λαμβάνεται μια απόφαση από AI.
Η υποχρέωση για AI audits από ρυθμιστικές αρχές.
Η υποχρεωτική σήμανση του AI-generated περιεχομένου.
Η αρχή της ελαχιστοποίησης δεδομένων.
Η Explainability είναι το δικαίωμα των χρηστών να κατανοούν τη λογική πίσω από τις αυτοματοποιημένες αποφάσεις των αλγορίθμων ΤΝ.
6. Τι πρέπει να συμβαίνει με το AI-generated περιεχόμενο (π.χ. deepfakes, AI chatbots), σύμφωνα με τις νέες απαιτήσεις διαφάνειας;
Να απαγορεύεται πλήρως η χρήση του.
Να αναγνωρίζεται με σαφή σήμανση (watermarking).
Να εκπαιδεύεται μόνο με ανώνυμα δεδομένα.
Να υπόκειται μόνο σε πολιτειακές ρυθμίσεις.
Η υποχρεωτική σήμανση (watermarking) είναι μέτρο διαφάνειας ώστε οι χρήστες να γνωρίζουν ότι αλληλεπιδρούν με σύστημα ΤΝ.
7. Σε τι είδους ελέγχους (audits) ενδέχεται να υπόκεινται οι επιχειρήσεις που χρησιμοποιούν AI σε ευαίσθητες εφαρμογές (π.χ. υγεία, προσλήψεις) από ρυθμιστικές αρχές;
Οικονομικούς ελέγχους (Financial Audits).
Υποχρεωτικούς ελέγχους (AI Audits).
Ελέγχους Marketing.
Ελέγχους Ελαχιστοποίησης Δεδομένων.
Στις ευαίσθητες εφαρμογές, προβλέπονται υποχρεωτικοί έλεγχοι (AI Audits) για τη διασφάλιση της συμμόρφωσης.
8. Ποια είναι η σχέση μεταξύ του Κανονισμού για την Τεχνητή Νοημοσύνη (AI Act) και του GDPR;
Το AI Act καταργεί τον GDPR.
Το AI Act λειτουργεί συμπληρωματικά προς τον GDPR.
Το GDPR περιορίζει το AI Act μόνο στη βιομετρία.
Το AI Act εφαρμόζεται μόνο στις ΗΠΑ.
Ο AI Act λειτουργεί συμπληρωματικά προς τον GDPR, θέτοντας επιπλέον απαιτήσεις ειδικά για τη χρήση της AI.
9. Ποια κατηγορία κινδύνου του AI Act επιβάλλει τα αυστηρότερα κριτήρια συμμόρφωσης για εφαρμογές που περιλαμβάνουν επεξεργασία προσωπικών δεδομένων;
Χαμηλού κινδύνου.
Μεσαίου κινδύνου.
Απαράδεπτου κινδύνου.
Υψηλού κινδύνου.
Τα συστήματα AI υψηλού κινδύνου (π.χ. προσλήψεις, παροχή πίστωσης) υπόκεινται σε αυστηρότερες προδιαγραφές διαφάνειας και συμμόρφωσης.
10. Ποια καταχρηστική πρακτική, που γίνεται σε άλλες χώρες (όπως η Κίνα), απαγορεύεται ρητά από τον AI Act σε συνδυασμό με τον GDPR;
Deepfake παραπληροφόρηση χωρίς σήμανση.
Αυτοματοποιημένη αξιολόγηση πιστοληπτικής ικανότητας.
Καταχρηστικό social scoring (βαθμολόγηση χρηστών).
Χρήση AI για την εκπαίδευση.
Το καταχρηστικό social scoring, δηλαδή η βαθμολόγηση χρηστών με βάση προσωπικά δεδομένα, απαγορεύεται.
11. Πώς ονομάζεται η διαδικασία που απαιτεί από τους παρόχους AI να εφαρμόζουν διαδικασίες διασφάλισης της προστασίας δεδομένων από το σχεδιασμό των συστημάτων;
AI Explainability.
Adversarial AI Detection.
Privacy by Design & by Default.
AI Risk Assessment.
Το Privacy by Design & by Default είναι η υποχρέωση εφαρμογής της προστασίας δεδομένων από τα πρώτα στάδια σχεδιασμού.
12. Για να αποφευχθεί η προκατάληψη (bias), με τι είδους δεδομένα πρέπει να εκπαιδεύονται τα AI μοντέλα;
Με τα περισσότερα δυνατά δεδομένα.
Με αντικειμενικά και επαληθεύσιμα δεδομένα.
Με ανώνυμα δεδομένα μόνο.
Με δεδομένα υψηλού κινδύνου.
Η εκπαίδευση με αντικειμενικά και επαληθεύσιμα δεδομένα είναι απαραίτητη για την αποφυγή προκατάληψης (bias) στους αλγορίθμους.
13. Ως τι κατηγοριοποιούνται τα βιομετρικά δεδομένα (αναγνώριση προσώπου, δακτυλικών αποτυπωμάτων) σύμφωνα με τον GDPR;
Δεδομένα χαμηλού κινδύνου.
Ειδικής κατηγορίας προσωπικά δεδομένα.
Δεδομένα γενικής χρήσης.
Δεδομένα ανώνυμης επεξεργασίας.
Τα βιομετρικά δεδομένα, λόγω της ευαισθησίας τους, ταξινομούνται ως «ειδικής κατηγορίας προσωπικά δεδομένα» (Άρθρο 9).
14. Ποια είναι μία από τις κύριες απαιτήσεις του GDPR για τη χρήση βιομετρικών δεδομένων;
Να είναι πάντα ανώνυμα.
Απαίτηση ρητής, σαφούς και τεκμηριωμένης συναίνεσης.
Να χρησιμοποιούνται μόνο για σκοπούς marketing.
Να συλλέγονται μόνο από κρατικές αρχές.
Η επεξεργασία βιομετρικών δεδομένων απαγορεύεται εκτός αν υπάρχει ρητή, σαφής και τεκμηριωμένη συναίνεση από το άτομο.
15. Τι απαγορεύει ρητά ο υπό διαμόρφωση AI Act στη χρήση βιομετρικών συστημάτων σε δημόσιους χώρους;
Την απλή χρήση δακτυλικών αποτυπωμάτων.
Την Αυτόματη Μαζική Αναγνώριση Προσώπου (real-time).
Τη χρήση για έλεγχο ταυτότητας εργαζομένων.
Τη χρήση για την πρόληψη τρομοκρατίας.
Η χρήση συστημάτων real-time μαζικής αναγνώρισης προσώπου σε δημόσιους χώρους θα απαγορευτεί, εκτός από εξαιρετικές περιπτώσεις ασφάλειας.
16. Σε ποιες περιπτώσεις επιτρέπεται η χρήση συστημάτων αναγνώρισης προσώπου από τις κρατικές αρχές (π.χ. αστυνομία), σύμφωνα με τον AI Act;
Για γενική επιτήρηση.
Για τη δημιουργία social scoring.
Μόνο σε περιπτώσεις σοβαρού εγκλήματος.
Για σκοπούς marketing.
Οι κρατικές αρχές περιορίζονται στη χρήση αναγνώρισης προσώπου μόνο σε περιπτώσεις σοβαρού εγκλήματος και όχι για γενική επιτήρηση.
17. Ποια είναι η υποχρέωση για τα βιομετρικά δεδομένα που συλλέγονται για νόμιμους σκοπούς, μετά τη χρήση τους;
Να αποθηκεύονται επ' αόριστον.
Να πωλούνται σε τρίτους.
Είτε να ανωνυμοποιούνται είτε να διαγράφονται αμέσως.
Να χρησιμοποιούνται για εκπαίδευση AI μοντέλων.
Ισχύει η υποχρέωση ανωνυμοποίησης ή διαγραφής αμέσως μετά τη χρήση, ως μέρος της αρχής της ελαχιστοποίησης δεδομένων.
18. Τι προβλέπει ο AI Act ότι πρέπει να φέρει υποχρεωτικά όλο το περιεχόμενο που δημιουργείται από AI (deepfake βίντεο, ψεύτικες εικόνες);
Τη σήμανση 'High Risk'.
Τη σήμανση 'Watermarking'.
Την ρητή συναίνεση του κάθε χρήστη.
Την ημερομηνία λήψης της απόφασης.
Ο AI Act προβλέπει υποχρεωτική σήμανση (AI-generated watermarking) για την αναγνώριση του συνθετικού περιεχομένου.
19. Ποιοι τύποι deepfakes απαγορεύονται ρητά από τον GDPR και τον AI Act λόγω της κατάχρησής τους;
Deepfakes που χρησιμοποιούνται για τέχνη.
Malicious deepfakes (για εκβιασμό, απάτες, παραβίαση προσωπικών δεδομένων).
Deepfakes με σήμανση (watermarking).
Deepfakes πολιτικών προσώπων με αυστηρούς ελέγχους.
Τα κακόβουλα deepfakes, που χρησιμοποιούνται για παράνομους σκοπούς, απαγορεύονται και οι δημιουργοί φέρουν νομική ευθύνη.
20. Τι πρέπει να έχει ο δημιουργός ενός deepfake που δημιουργεί ψηφιακή αναπαράσταση ενός ατόμου, σύμφωνα με τον GDPR, πριν από τη δημοσίευση του περιεχομένου;
Την άδεια του κράτους.
Την ρητή συναίνεση του ατόμου.
Την πλήρη ανωνυμοποίηση του ατόμου.
Την πιστοποίηση από AI Audit.
Η δημιουργία ψηφιακής αναπαράστασης ενός ατόμου απαιτεί τη ρητή συναίνεση του ατόμου, λόγω της φύσης των προσωπικών δεδομένων.
21. Ποια είναι η βασική προσαρμογή του GDPR που αναφέρεται ως ζωτικής σημασίας για την προστασία δεδομένων στην εποχή της AI;
Απαγόρευση όλων των AI συστημάτων.
Συνεργασία του GDPR με τον AI Act για σαφή όρια χρήσης της AI σε εφαρμογές υψηλού κινδύνου.
Ενίσχυση της χρήσης deepfakes.
Μείωση των απαιτήσεων συναίνεσης.
Η συνεργασία μεταξύ GDPR και AI Act είναι το κλειδί για τη θέσπιση ενός ολοκληρωμένου ρυθμιστικού πλαισίου για τις εφαρμογές υψηλού κινδύνου.
22. Ποιο νομικό πλαίσιο καθορίζει τις συνθήκες μεταφοράς προσωπικών δεδομένων μεταξύ ΕΕ και ΗΠΑ;
Ο Κανονισμός για τα Generative AI συστήματα.
Το Cloud Act.
Το EU-U.S. Data Privacy Framework.
Το AI Bill of Rights.
Το EU-U.S. Data Privacy Framework είναι το πλαίσιο που ρυθμίζει τη μεταφορά προσωπικών δεδομένων μεταξύ των δύο περιοχών.
23. Εκτός από την απαγόρευση της μαζικής αναγνώρισης προσώπου σε δημόσιους χώρους, ποιο άλλο μέτρο περιορισμού της βιομετρικής αναγνώρισης εισάγει ο AI Act/GDPR;
Την υποχρέωση ετήσιου μάρκετινγκ AI.
Περιορισμούς στην αστυνομική χρήση βιομετρικών δεδομένων (γενική επιτήρηση).
Την ελεύθερη χρήση για παροχή πίστωσης.
Την ενίσχυση του social scoring.
Οι κρατικές αρχές περιορίζονται στη χρήση αναγνώρισης προσώπου για γενική επιτήρηση, επιτρέποντάς τη μόνο σε περιπτώσεις σοβαρού εγκλήματος.
24. Τι αναπτύσσουν οι κυβερνήσεις και οι τεχνολογικές εταιρείες ως αντιμετρικό μέτρο για την πρόληψη της κατάχρησης deepfakes;
Νομικές ευθύνες για τους χρήστες.
Adversarial AI Detection (λογισμικό ανίχνευσης deepfakes).
Νέους κανονισμούς για την εκπαίδευση.
Αύξηση του social scoring.
Το λογισμικό ανίχνευσης deepfakes (Adversarial AI Detection) αναπτύσσεται για τον εντοπισμό τεχνητά τροποποιημένων εικόνων και βίντεο.
25. Ποιος από τους παρακάτω όρους αποτελεί υποχρέωση για τους AI παρόχους με σκοπό τη διασφάλιση ότι η τεχνολογία τους δεν χρησιμοποιείται για παράνομους σκοπούς;
Τεκμηρίωση της συμβατότητας των AI μοντέλων με τα πρότυπα προστασίας δεδομένων.
Πώληση μόνο ανώνυμων δεδομένων.
Άμεση διαγραφή όλων των AI μοντέλων.
Συμμόρφωση μόνο με τους πολιτειακούς νόμους των ΗΠΑ.
Η λογοδοσία των AI παρόχων ενισχύεται με την υποχρέωση τεκμηρίωσης της συμβατότητας των μοντέλων τους με τα πρότυπα προστασίας δεδομένων.
Υποβολή
Επανεκκίνηση
Δεν υπάρχουν σχόλια:
Δημοσίευση σχολίου
Νεότερη ανάρτηση
Παλαιότερη Ανάρτηση
Αρχική σελίδα
Εγγραφή σε:
Σχόλια ανάρτησης (Atom)
Δεν υπάρχουν σχόλια:
Δημοσίευση σχολίου