Η κορυφαία ειδικός στο AI Ν. Τσερπέλη στον Κ. Μπογδάνο – Αοριστίες, υπερβολές και διευκρινίσεις – Video

Η κορυφαία ειδικός στο AI Ν. Τσερπέλη στον Κ. Μπογδάνο – Αοριστίες, υπερβολές και διευκρινίσεις – Video

Η δημόσια συζήτηση για την τεχνητή νοημοσύνη χρειάζεται σαφήνεια και τεκμηρίωση. Στην πρόσφατη συνομιλία Κωνσταντίνου Μπογδάνου με τη Νεκταρία Τσερπέλη διατυπώθηκαν σωστές ανησυχίες αλλά και ισχυρές δηλώσεις που είτε υπεραπλουστεύουν την πραγματικότητα είτε δεν τεκμηριώνονται. Σε αυτό το άρθρο καταγράφω, ενοποιώ και κριτικά αναλύω τα κύρια σημεία της κουβέντας — ανά ερώτηση/απάντηση — επισημαίνοντας ασαφειες, ανακρίβειες και προσθέτοντας πιο ακριβείς διατυπώσεις και προτάσεις πολιτικής.

– Η ΤΝ «αυτοματοποιεί το μυαλό» και είναι «πιο μεγάλο φαινόμενο κι από τη βιομηχανική επανάσταση».

Γιατί είναι παραπλανητικό / τι λείπει:

– Η σημερινή ΤΝ αυτοματοποιεί συγκεκριμένα γνωσιακά tasks (π.χ. σύνοψη, ταξινόμηση, παραγωγή προσχεδίων), όχι την ανθρώπινη συνείδηση ή την πλήρη «σκέψη». Η κρίσιμη διάκριση είναι task‑level automation vs. γενική νοητική αυτοματοποίηση.
– Η καινοτομία σήμερα είναι στην κλίμακα και στην ευελιξία των εργαλείων, όχι στην ιδέα ότι «αυτοματοποιείται η γνώση» για πρώτη φορά — προηγήθηκαν expert systems και ML εφαρμογές.
– Η σύγκριση με τη βιομηχανική επανάσταση προϋποθέτει αποδείξεις (π.χ. μαζικές απώλειες/δημιουργίες θέσεων, αλλαγές παραγωγικότητας). Χωρίς δεδομένα, γίνεται ρητορική υπερβολή.

Πιο ακριβής διατύπωση: «Η ΤΝ αυτοματοποιεί μεγάλο εύρος γνωστικών εργασιών σε κλίμακα· αλλά πολλά σύνθετα καθήκοντα απαιτούν ακόμη ανθρώπινη κρίση, ηθική αξιολόγηση και επαλήθευση».

Ανθρωπολογικές δηλώσεις, ταχύτητα εξέλιξης και αξιοπιστία

Εκφράστηκαν φόβοι για «νοητική αποδυνάμωση» του ανθρώπου, ότι τα μοντέλα εξελίσσονται εβδομάδα με την εβδομάδα και ότι «ο πιο έξυπνος άνθρωπος θα μοιάζει με παιδί τριών ετών». Αναφέρθηκε και το περιστατικό με το GROK που παρήγαγε ψευδές απόσπασμα.

Γιατί χρειάζονται διευκρινίσεις:

– Ιστορικά παραδείγματα δείχνουν ότι τεχνολογικά εργαλεία μπορούν να αλλάξουν δεξιότητες αλλά όχι αναγκαστικά να «χαζέψουν» την ανθρωπότητα· το αποτέλεσμα εξαρτάται από εκπαιδευτικές πολιτικές και κοινωνικές επιλογές.
– Η πρόοδος είναι γρήγορη σε πολλά πεδία, αλλά δεν είναι ομοιόμορφη ούτε αυτόματη. Τα μοντέλα παρουσιάζουν σημαντικούς περιορισμούς: hallucinations, έλλειμμα αιτιολόγησης και ευπάθειες.
– Το περιστατικό του GROK αναδεικνύει τους κινδύνους των hallucinations. Η απάντηση «αφού ήταν λάθος» δεν αρκεί: απαιτούνται τεχνικές (retrieval‑augmented generation, citation, human‑in‑the‑loop) και θεσμικά μέτρα για εφαρμογές που απαιτούν ακρίβεια.

Πιο ισορροπημένη προσέγγιση: «Σε ορισμένα tasks τα συστήματα υπερβαίνουν ανθρώπους· σε άλλα (κρίση, ηθική, πρωτότυπη δημιουργικότητα) οι άνθρωποι παραμένουν αναντικατάστατοι. Τα hallucinations μειώνονται με τεχνικές αλλά δεν εξαφανίζονται χωρίς grounding και επαλήθευση».

Εργασία, gigs, upskilling και agentic AI

Υποστηρίχθηκε ότι τα gigs/upskilling προγράμματα μπορούν να σώσουν εργαζομένους από απολύσεις, ότι «η μισή ανθρωπότητα είναι άμεσα αντικαταστάσιμη» και ότι agentic systems είναι η νέα φάση με αυξημένη αυτονομία.

Κριτική και ορθές διευκρινίσεις:

– Τα προγράμματα upskilling βοηθούν, υπάρχουν επιτυχημένα παραδείγματα· αλλά δεν κλιμακώνονται αυτόματα για όλο τον πληθυσμό. Απαιτούνται χρόνος, πόροι, και δημόσια στήριξη για πιστοποιήσεις και κοινωνική προστασία.
– Η διατύπωση «η μισή ανθρωπότητα άμεσα αντικαταστάσιμη» είναι υπερβολική· η σωστή ανάλυση πρέπει να λειτουργεί σε επίπεδο tasks: πολλές επαναλαμβανόμενες εργασίες είναι ευάλωτες, αλλά ρόλοι συχνά ανασχηματίζονται παρά εξαφανίζονται άμεσα.
– Τα agentic συστήματα (agents) επιτελούν πολλαπλά βήματα και χρησιμοποιούν εργαλεία, αλλά σήμερα έχουν όρια (ασφάλεια, αξιοπιστία). Χρειάζονται guardrails — sandboxing, auditing, περιορισμούς σε οικονομικές/νομικές ενέργειες — προτού αναλάβουν κρίσιμες λειτουργίες.

Γλώσσα, μετάφραση, δημοσιογραφία, δημογραφία και αγορά εργασίας

Έγινε έκκληση για προσοχή στη «διάφθορά» της ελληνικής λόγω φτωχών μεταφράσεων που τροφοδοτούν μοντέλα, επισημάνθηκαν δημοσιογραφικές πρακτικές μαζικής παραγωγής, ψηφιακός αναλφαβητισμός και κινήσεις για ρύθμιση HR‑AI και χρηματοπιστωτικών αλγορίθμων.

Σημεία που χρειάζονται αποδείξεις και προτάσεις:

– Η ανησυχία για την ποιότητα του training data είναι βάσιμη: χαμηλής ποιότητας μεταφράσεις επηρεάζουν μοντέλα. Όμως απαιτούνται ποσοτικά δεδομένα για να αποδειχθεί το εύρος του προβλήματος στα ελληνικά corpora.
– Η πίεση σε newsroom ευνοεί αυτοματοποιημένες λύσεις· χρειάζεται διαφάνεια (ετικέτες «αυτόματο/μεταφρασμένο κείμενο»), επιχορηγήσεις για ποιοτική δημοσιογραφία και standards fact‑checking.
– Στο HR‑AI απαιτούνται αποτελεσματικοί κανόνες: διαφάνεια κριτηρίων, δικαίωμα αναθεώρησης, auditing fairness. Στις χρηματαγορές, πρέπει να ενισχυθεί η εποπτεία (stress‑tests, sandboxing) για trading agents.
– Η εκπαίδευση είναι κρίσιμη: ενσωμάτωση βασικής AI παιδείας στα σχολεία, μαζικά προγράμματα upskilling με vouchers, και ειδικές δράσεις για ηλικιωμένους/ευάλωτες ομάδες.

Διόρθωση τεχνικών/νομικών αστοχιών που ειπώθηκαν

– GDPR: εφαρμόζεται από 25/5/2018 (όχι «2019»).
– Η νομοθετική εικόνα στην ΕΕ είναι πιο σύνθετη από «τρεις νόμους»: GDPR, Digital Services Act, AI Act (και άλλα εργαλεία) συνεργάζονται, αλλά οι λεπτομέρειες εφαρμογής και οι εκτελεστικοί κανόνες παραμένουν σε εξέλιξη.

Τι ζητάμε από δημόσιους συνομιλητές

– Όταν γίνονται δραματικοί ισχυρισμοί («πρώτη φορά», «μισή ανθρωπότητα») να συνοδεύονται από τεκμήρια ή συγκεκριμένες μελέτες.
– Πιο ακριβή τεχνική γλώσσα όταν μιλάμε για hallucinations, retrieval, grounding — και σαφή διάκριση μεταξύ χρήσης εργαλείων και τεχνικής εξειδίκευσης (η ομιλήτρια δήλωσε ότι δεν είναι προγραμματίστρια· αυτό μειώνει την ευθύνες για τεχνικές αξιώσεις).

Συμπέρασμα και προτάσεις πολιτικής (σύντομη λίστα)

– Να δημιουργηθούν και να χρηματοδοτηθούν curated ελληνικά corpora με provenance και metadata.
– Υποχρεωτική ετικετοποίηση αυτοματοποιημένου/μεταφρασμένου περιεχομένου σε πλατφόρμες και μέσα.
– Εθνικό πρόγραμμα ψηφιακής ένταξης: σχολική ενσωμάτωση AI, vouchers για upskilling, μικροπιστοποιήσεις και στήριξη για ευάλωτες ομάδες.
– Ρύθμιση HR‑AI: auditing, διαφάνεια κριτηρίων, δικαίωμα προσφυγής.
– Ενίσχυση εποπτείας χρηματοπιστωτικών AI: sandboxing, stress‑tests και απαιτήσεις απολογισμού.
– Grants για quality journalism και στήριξη τοπικών newsroom.

Video: Εσύ θα καταστραφείς ή θα μεγαλουργήσεις; Κορυφαία Ελληνίδα ειδικός στην Τεχνητή Νοημοσύνη απαντά

Πιο αναλυτικά η συζήτηση σε επίπεδο ερωτήσεων και κριτική στις απαντήσεις.

Η συζήτηση ανοίγει με έντονο συναίσθημα: η τεχνητή νοημοσύνη (ΤΝ) «έρχεται με φόρα» και θα αλλάξει πολλά. Αυτό είναι σε μεγάλο βαθμό αληθές — αλλά όταν μεταφορές όπως «αυτοματοποιεί το μυαλό» γίνονται ως τεχνικές διακηρύξεις, είναι απαραίτητο να ξεκαθαρίσουμε τι εννοούμε. Η δημόσια λογοδοσία απαιτεί ακριβές λόγο, ειδικά όταν μιλάμε για επιπτώσεις στην εργασία, την εκπαίδευση και τη δημοκρατία. Παρακάτω επισημαίνω τα κύρια προβληματικά σημεία της πρώτης ενότητας και προτείνω πιο σωστές διατυπώσεις.

1) «Η ΤΝ αυτοματοποιεί το μυαλό»

Η κα. Τσερπέλη λέει επανειλημμένα ότι η τεχνητή νοημοσύνη «αυτοματοποιεί το μυαλό» — ότι για πρώτη φορά στην ιστορία αυτοματοποιούνται νοητικές, δημιουργικές και γνωστικές λειτουργίες.

Τι λείπει / γιατί είναι παραπλανητικό:

– Λόγος vs πραγματικότητα: Τα σύγχρονα συστήματα (π.χ. μεγάλα γλωσσικά μοντέλα) αυτοματοποιούν συγκεκριμένα tasks — π.χ. σύνοψη κειμένων, παραγωγή πρώτων drafts, ταξινόμηση πληροφοριών, αναζήτηση σχετικών πηγών — όχι την ανθρώπινη συνείδηση ή τη γενική κατανόηση. Η διαφορά μεταξύ «task automation» και «αυτοματοποίησης της σκέψης» είναι κρίσιμη.
– Δεν είναι καινούργιο το φαινόμενο της αυτοματοποίησης «γνώσης»: πριν από τα τρέχοντα συστήματα υπήρξαν expert systems, μοντέλα μηχανικής μάθησης και αυτοματοποιημένα εργαλεία ανάλυσης· η καινοτομία σήμερα είναι στην κλίμακα, την προσβασιμότητα και την ευελιξία, όχι στην ύπαρξη αυτοματισμού καθαυτού.
– Κίνδυνος υπεραπλούστευσης: Η εικόνα «η ΤΝ κάνει ό,τι σκεφτόμαστε» δημιουργεί την εντύπωση ότι ρόλοι που απαιτούν κρίση, ηθική εκτίμηση ή σύνθετη διαπροσωπική αλληλεπίδραση είναι «αμέσως» αντικαταστάσιμοι — κάτι που δεν υποστηρίζεται από εμπειρικά στοιχεία με τέτοια γενικότητα.

Πιο ακριβής διατύπωση που έλειπε: «Η ΤΝ αυτοματοποιεί συγκεκριμένες νοητικές εργασίες σε μεγάλη κλίμακα — γι’ αυτό αλλάζει το περιεχόμενο πολλών επαγγελμάτων. Όμως πολλά σύνθετα καθήκοντα απαιτούν ακόμη ανθρώπινη κρίση, έλεγχο και ηθική εκτίμηση».

2) «Πρώτη φορά στην ιστορία» — σύγκριση με βιομηχανική επανάσταση

Η ΤΝ παρουσιάστηκε ως μεγαλύτερο φαινόμενο και από τη βιομηχανική επανάσταση· η βιομηχανική είχε αυτοματοποιήσει «τα χέρια», η ΤΝ αυτοματοποιεί «το μυαλό».

Τι λείπει / γιατί χρειάζεται επιφύλαξη:

– Διαφορετικές δυναμικές: Η βιομηχανική επανάσταση δημιούργησε μαζικό μετασχηματισμό της παραγωγής, του κεφαλαίου και της εργασίας σε διάστημα δεκαετιών με συγκεκριμένα μοτίβα μετανάστευσης, αστικοποίησης και μαζικής απασχόλησης. Η ΤΝ μπορεί να αλλάξει τον τρόπο εργασίας — αλλά οι τρόποι με τους οποίους θα επηρεαστούν οικονομίες, κατηγορίες εργαζομένων και πολιτικά συστήματα διαφέρουν και εξαρτώνται από ρυθμίσεις, επενδύσεις και κοινωνικές πολιτικές.
– Χρειάζονται δεδομένα: Η σύγκριση «μεγαλύτερο φαινόμενο» είναι ρητή αξιολόγηση που απαιτεί βάσιμα στοιχεία (ρυθμούς απώλειας/δημιουργίας θέσεων εργασίας, αλλαγή παραγωγικότητας, κοινωνικό κόστος/όφελος). Χωρίς τέτοια στοιχεία η πρόταση παραμένει ρητορική.

3) «Όλες οι λειτουργίες που κάνουμε να σκέφτόμαστε και να γράφουμε πλέον τα κάνουν εργαλεία ΤΝ»

Εντύπωση ότι τώρα τα εργαλεία αναλαμβάνουν ολοκληρωτικά τη σύνταξη, την ανάλυση, την παραγωγή περιεχομένου.

Τι λείπει / γιατί είναι υπεραπλούστευση:

– Διάκριση δημιουργίας πρώτων υλικών (drafts) και τελικής ευθύνης: Στον δημοσιογραφικό, νομικό ή επιστημονικό χώρο, αυτοματοποιημένα drafts μπορούν να επιταχύνουν τη δουλειά — αλλά η αξιοπιστία, η επαλήθευση, η κριτική επεξεργασία και η ευθύνη παραμένουν ανθρώπινα καθήκοντα.
– Πρόβλημα αξιοπιστίας: Τα συστήματα παράγουν λάθη (hallucinations) και ανακρίβειες — αυτό που αναφέρονταν αργότερα («μ’ έσωσε ότι ήταν λάθος») δείχνει ότι δεν μπορούν να αντικαταστήσουν την επαλήθευση από ειδικούς.
– Εξάρτηση από domain data: Σε εξειδικευμένα θέματα, όπου η εγκυρότητα βασίζεται σε πρόσβαση βάσεων δεδομένων ή πρωτογενών πηγών, τα μοντέλα χωρίς κατάλληλο retrieval/πρόσβαση σε βάσεις δεν είναι «αξιόπιστα».

4) Αυθεντία της ομιλήτριας και τεχνική εξειδίκευση
Η κα. Τσερπέλη δηλώνει ότι δεν είναι προγραμματίστρια, αλλά έχει εμπειρία στο περιβάλλον περιεχομένου και εργαλείων ΤΝ.

Τι λείπει / γιατί είναι σημαντικό:

– Διαφάνεια: Είναι θετικό που το δηλώνει — σημαίνει ότι οι απόψεις της προέρχονται από χρήση και πρακτική εμπειρία στο περιβάλλον των εργαλείων, όχι από deep technical research. Αυτό όμως μειώνει την αρμοδιότητα για εξειδικευμένες τεχνικές διαπιστώσεις (π.χ. πώς ακριβώς μειώνονται τα hallucinations).
– Τεκμηρίωση: Όταν γίνονται μεγάλες αξιώσεις (π.χ. «αυτοματισμός του μυαλού», «μεγαλύτερο από βιομηχανική επανάσταση»), ωφελεί η παραπομπή σε μελέτες, στατιστικά ή τεχνικές εξηγήσεις — αλλιώς οι δηλώσεις παραμένουν ρητορικές.

Προτεινόμενες βελτιώσεις στη διατύπωση της ομιλήτριας

– Αντί για «η ΤΝ αυτοματοποιεί το μυαλό», να λέγαμε: «Η ΤΝ αυτοματοποιεί πληθώρα γνωστικών tasks — ιδίως εκείνα που επαναλαμβάνονται και είναι βασισμένα σε μοτίβα γλώσσας και δεδομένων».
– Αντί για «πρώτη φορά στην ιστορία», να προσθέσουμε: «σε αυτή τη μορφή και με αυτή την κλίμακα — αλλά η αυτοματοποίηση γνώσης έχει ιστορία και προηγούμενες τεχνολογικές φάσεις».
– Όπου αναφέρονται ευρείες κοινωνικές συνέπειες, να συνοδεύονται από: a) παραδείγματα (ποια tasks/ρόλοι), b) επισημάνσεις για την ανάγκη ελέγχου/επαλήθευσης, και c) πολιτικές προτάσεις (εκπαίδευση, κοινωνικά δίχτυα).

……………………………………………………………………….

Η δεύτερη ενότητα της συζήτησης κινείται μεταξύ προβληματισμών για την ανθρώπινη εξέλιξη (σωματική/νοητική), τεχνολογικού θυμού («ο πιο έξυπνος άνθρωπος θα είναι σαν παιδί τριών ετών») και πρακτικών παραδειγμάτων χρήσης ΑΙ σε παραγωγή περιεχομένου. Παρουσιάζει αξιόλογες εμπειρικές μαρτυρίες, αλλά και σειρά λανθασμένων ή ασαφών ισχυρισμών που χρήζουν διόρθωσης για να μην παραπλανηθεί το κοινό.

1) «Οι άνθρωποι του 18ου–19ου αιώνα ήταν πιο γυμνασμένοι — άρα θα «γελοιοποιηθούμε» νοητικά;»

Χρησιμοποιήθηκε το παράδειγμα ότι οι άνθρωποι της πρώτης βιομηχανικής επανάστασης ήταν πιο σωματικά γυμνασμένοι, και έγινε —υπό μορφή προβληματισμού— σύνδεση με την προοπτική «να γίνουμε χαζοί» καθώς η ΤΝ θα αναλάβει νοητικές λειτουργίες.

Τι πρέπει να λεχθεί σωστά:

– Είναι αληθές ότι οι χειρωνακτικές εργασίες παλαιότερα απαιτούσαν μεγαλύτερη σωματική κόπωση· αυτό δεν εξισώνει όμως αυτόματα σωματική ευρωστία με νοητική ικανότητα.
– Η ιδέα ότι η χρήση εργαλείων οδηγεί αναγκαστικά σε νοητική «επίπτωση» (π.χ. «χαζοποίηση») είναι απλοϊκή. Η ιστορία δείχνει και τα δύο: τεχνολογικά εργαλεία μπορούν να αποβλακώσουν (π.χ. κοντόβιες συνήθειες) αλλά και να απελευθερώσουν δημιουργικό δυναμικό και νέες δεξιότητες.
– Η σωστή ανάλυση πρέπει να διακρίνει: ποιες δεξιότητες κινδυνεύουν να υποτιμηθούν, ποιες νέες δεξιότητες απαιτούνται (μεταδεξιότητες, κριτική σκέψη, πληροφοριακή επιστημοσύνη) και πώς θα στηριχθεί η μετάβαση.

2) «Οι AI εξελίσσονται εβδομάδα με την εβδομάδα — ο πιο έξυπνος άνθρωπος θα μοιάζει με παιδί τριών ετών»

Η πρόοδος των εργαλείων περιγράφεται ως συνεχής, γρήγορη και εκθετική — με συνέπεια την θεμελιώδη ανισότητα μεταξύ ανθρώπου και μηχανής.

Αποσαφήνιση/διορθώσεις:

– Πράγματι, τα τελευταία χρόνια βγήκαν σημαντικά μοντέλα με ραγδαία βελτίωση. Ωστόσο:
– Η βελτίωση δεν είναι ομοιόμορφη ούτε συνεχής χωρίς εμπόδια — εξαρτάται από δεδομένα, υπολογιστική ισχύ, επενδύσεις, καινοτομίες στην αρχιτεκτονική και τις μεθόδους (π.χ. retrieval, fine‑tuning).
– Τα μοντέλα είναι εξαιρετικά σε ορισμένα είδη εργασιών (pattern recognition, γλωσσική παραγωγή) αλλά εμφανίζουν σοβαρούς περιορισμούς: έλλειμμα αιτιολόγησης, ευαλωτότητα σε λάθη (hallucinations), έλλειψη «κατανόησης» με ανθρώπινα κριτήρια.
– Η μεταφορά «ο πιο έξυπνος άνθρωπος σαν παιδί τριών ετών» είναι ρητορική υπερβολή. Χρησιμότερο είναι να πούμε: «Σε ορισμένα tasks τα συστήματα υπερβαίνουν ανθρώπους· σε άλλα (σύνθετη κρίση, ηθική, δημιουργικότητα με προσωπικό στίγμα) οι άνθρωποι παραμένουν πρωταγωνιστές».

3) «Οι πρώτοι που πλήττονται είναι οι white‑collars / knowledge workers — executives και managers ίσως όχι»

Η ΤΝ «χτύπησε» πρώτα δουλειές του «λευκού κολάρου», ειδικά αυτές που έχουν σχέση με περιεχόμενο και γνώση. Παράλληλα ειπώθηκε ότι το management δεν έχει επηρεαστεί.

Κριτική και διόρθωση:

– Η σωστή ανάλυση πρέπει να γίνεται σε επίπεδο tasks, όχι ρόλων: πολλά «white collar» επαγγέλματα περιλαμβάνουν tareas (π.χ. διοίκηση κρίσεων) που δεν αυτοματοποιούνται εύκολα, αλλά επίσης δεκάδες απρόσωπες εργασίες εντός των ίδιων ρόλων (π.χ. σύνταξη αναφορών, επεξεργασία δεδομένων) είναι ευάλωτες.
– Είναι αντιφατικό να λέμε ότι επηρεάζεται «η γνώση» αλλά όχι η διοίκηση: εργαλεία ανάλυσης, forecasting, report generation επηρεάζουν ήδη ποιοτικά το management — αλλά δεν αναλαμβάνουν την τελική ευθύνη. Συνεπώς: management αλλάζει, δεν παραμένει ανεπηρέαστο.

4) Παράδειγμα πρακτικής: μείωση έργου τριών συγγραφέων — «είναι εξίσου αξιόπιστα»

Στην εργασία που περιγράφεται, τα εργαλεία αγόρασαν παραγωγικότητα και —σύμφωνα με την ομιλήτρια— «είναι εξίσου αξιόπιστα».

Ανάλυση:

– Εργαλεία μπορούν να παράγουν γρήγορα κείμενα/πρώτα drafts και να αυξήσουν παραγωγικότητα. Αυτό είναι αληθές και πρακτικά αξιοποιείται.
– Όμως ο ισχυρισμός «εξίσου αξιόπιστα» χρειάζεται αποσαφήνιση: αξιοπιστία καθορίζεται από domain, ανάγκη για επαλήθευση, ποιότητα training data και υπάρχουσες διαδικασίες fact‑checking. Σε ευαίσθητα ή εξειδικευμένα πεδία απαιτείται ανθρώπινος έλεγχος και επαλήθευση.
– Επομένως σωστότερο: «Τα εργαλεία βελτιώνουν την ταχύτητα και μπορούν να παράγουν λειτουργικά κείμενα· αλλά η αξιοπιστία τους εξαρτάται από διαδικασίες επαλήθευσης και την ποιότητα των δεδομένων εκπαίδευσης».

5) Το παράδειγμα με το GROK και τα «ψεύτικα αποσπάσματα»

Το εργαλείο GROK έδωσε ένα φανταστικό απόσπασμα και παραδέχθηκε ότι το δημιούργησε — προκαλώντας σοκ.

Ανάλυση/εξηγήσεις που έλειψαν:

– Το φαινόμενο των hallucinations (παραγωγή μη αληθινών ισχυρισμών) είναι υπαρκτό και επικίνδυνο για εφαρμογές που απαιτούν ακρίβεια.
– Η εξήγηση ότι «τα μοντέλα διαλέγουν την επόμενη λέξη βάσει patterns» είναι τεχνικά σωστή ως απλούστευση, αλλά δεν εξηγεί όλες τις στρατηγικές αντιμετώπισης:
– Υπάρχουν πλέον τεχνικές που μειώνουν hallucinations: retrieval‑augmented generation (σύνδεση με βάσεις γνώσης), fact‑verification pipelines, μοντέλα που παρέχουν citations, uncertainty estimation, ανθρώπινη επαλήθευση.
– Η απλή εξάρτηση από «πιο σωστό prompting» βοηθά αλλά δεν επαρκεί για κρίσιμα ζητήματα. Η λύση απαιτεί συστήματα που «συσχετίζουν» παραγωγή με πηγές και ελέγχους.

6) «Τα hallucinations μειώνονται με τον χρόνο» — ρεαλισμός και όρια

Η ομιλήτρια ότι το φαινόμενο «έχει αρχίσει και μειώνεται».

Σωστή αλλά ελλιπής παρατήρηση:

– Πράγματι, σε νέα μοντέλα και με βελτιωμένες αρχιτεκτονικές το ποσοστό λάθους μειώνεται σταδιακά. Όμως:
– Δεν υπάρχει εγγύηση μηδενισμού· τα hallucinations μπορούν να εμφανιστούν όταν το μοντέλο εργάζεται εκτός του domain των δεδομένων του ή όταν αντιμετωπίζει ασαφή ερωτήματα.
– Η λύση είναι μηχανισμική (retrieval, grounding, audit trails), θεσμική (standards, επαλήθευση) και εκπαιδευτική (χρήστες να γνωρίζουν περιορισμούς).

7) Διαχείριση πνευματικής ιδιοκτησίας και training data

Πολλές εταιρείες απαιτούν τα έργα τους να μην χρησιμοποιούνται για training, για να αποφύγουν copy‑paste/κλοπή.

Σχόλιο / λεπτομέρειες που απουσίασαν:

– Πράγματι, ζητήματα IP, άδειες χρήσης και training data είναι κεντρικά και αμφιλεγόμενα. Υπάρχουν πρακτικές:
– Opt‑out / opt‑in πολιτικές για χρήση δεδομένων,
– Ρυθμιστικά πλαίσια (copyright, ευθύνες πλατφόρμων),
– Τεχνικές λύσεις (fine‑tuning σε ιδιωτικά δεδομένα χωρίς exposure στο δημόσιο μοντέλο).
– Το θέμα είναι νομικά σύνθετο και σε εξέλιξη· απαιτείται ρυθμιστική σαφήνεια και βιομηχανικές συμφωνίες.

8) «Το εργαλείο που ‘ψεύδεται’ — φταίει ο χρήστης (prompting)»

Η ομιλήτρια τονίζει ότι ο τρόπος ερώτησης (prompting) επηρεάζει την απάντηση και για αυτό χρειάζεται εκπαίδευση των χρηστών.

Ανάλυση:

– Σωστό: Οι δεξιότητες στο prompting δείχνουν διάφορα οφέλη στην ποιότητα της παραγωγής.
– Όμως το βάρος δεν πρέπει να πέφτει αποκλειστικά στον χρήστη. Τα εργαλεία πρέπει να σχεδιάζονται με μηχανισμούς ασφαλείας, αξιοπιστίας (π.χ. citation, provenance), και περιορισμούς σε κρίσιμες εφαρμογές.
– Εκπαίδευση + τεχνικές εγγυήσεις + ρυθμιστικά πλαίσια πρέπει να συνδυαστούν.

9) «Upskilling, gigs, εσωτερική μετακίνηση» — ρεαλισμός εφαρμογής

Οι εταιρείες υλοποιούν προγράμματα (gigs) που επιτρέπουν σε εργαζόμενους να επανακατευθυνθούν/εκπαιδευτούν εσωτερικά σε νέους ρόλους.

Σχόλια / περιορισμοί:

– Υπάρχει όντως τάση για εσωτερικά προγράμματα upskilling και cross‑skilling· πολλά μεγάλα companies επενδύουν σε επανεκπαίδευση.
– Όμως το μοντέλο δεν κλιμακώνεται αυτόματα για όλο το εργατικό δυναμικό:
– Μικρομεσαίες επιχειρήσεις, ευάλωτοι κλάδοι ή ηλικιακά/γεωγραφικά περιθωριοποιημένοι εργαζόμενοι αντιμετωπίζουν μεγαλύτερα εμπόδια.
– Χρειάζονται δημόσιες πολιτικές: επιδότηση εκπαίδευσης, κοινωνική προστασία κατά τη μετάβαση, πιστοποιήσεις δεξιοτήτων, δίκαιη πρόσβαση.

Συνοπτικά συμπεράσματα

– Σωστές επισημάνσεις: Η ΤΝ αλλάζει τον τρόπο παραγωγής περιεχομένου· υπάρχουν πραγματικές επιπτώσεις σε εργασίες που βασίζονται σε μοτίβα γνώσης.
– Όμως οι ρητορικές υπερβολές (απόλυτες συγκρίσεις με βιομηχανική επανάσταση, «ο έξυπνος άνθρωπος παιδί τριών ετών», «τα εργαλεία είναι εξίσου αξιόπιστα») δημιουργούν λανθασμένες προσδοκίες και φόβους.
– Απουσιάζει τεχνική και πολιτική πληρότητα: δεν εξηγήθηκαν τα τεχνικά μέσα μείωσης hallucinations, οι πρακτικοί περιορισμοί του upskilling και οι απαιτούμενες δημόσιες πολιτικές.

Προτάσεις για ακρίβεια και υπεύθυνη δημόσια συζήτηση

1. Να μιλάμε σε επίπεδο tasks — όχι μόνο σε επίπεδο επαγγελμάτων. Η εκτίμηση ρίσκου πρέπει να μετριέται με το ποιες εργασίες μέσα σε έναν ρόλο είναι αυτοματοποιήσιμες.
2. Όπου αναφέρονται τεχνικά ζητήματα (hallucinations, training data), να συνοδεύονται από απλές εξηγήσεις των μεθόδων αντιμετώπισης (retrieval, provenance, human‑in‑the‑loop).
3. Να αναγνωρίζουμε το υφιστάμενο κοινωνικό/οικονομικό πλαίσιο: upskilling χρειάζεται πόρους· δεν είναι πανάκεια.
4. Να ζητηθεί από τους ομιλητές να τεκμηριώνουν μεγάλα, δραματικά ισχυρισμούς με παραπομπές σε έρευνες ή συγκεκριμένα δεδομένα.

……………………………………………………………………….

Η τρίτη ενότητα αναπτύσσει πρακτικές όψεις: προγράμματα upskilling (gigs), την πιθανότητα μαζικής αντικατάστασης εργαζομένων, τον υβριδικό χαρακτήρα ανθρώπου‑μηχανής και τις ρυθμιστικές διεργασίες. Πολλά σωστά σημεία, αλλά και αρκετές υπεραπλουστεύσεις, υπερβολές και τεχνικές αοριστίες που χρειάζονται διόρθωση ή αποσαφήνιση. Παρακάτω εντοπίζω τα κύρια σημεία, εξηγώ τι λείπει ή τι είναι παραπλανητικό και προτείνω πιο ακριβείς διατυπώσεις.

1) Gigs / upskilling: λειτουργούν — αλλά δεν είναι πανάκεια

Τα προγράμματα gigs επιτρέπουν σε εργαζόμενους να εκπαιδευτούν σε νέους ρόλους εντός εταιρείας (π.χ. να μάθουν κώδικα) μέσα σε λίγους μήνες, και έτσι οι εταιρείες «θα επαναχρησιμοποιήσουν» το προσωπικό αντί να απολύσουν.

Τι λείπει / γιατί χρειάζεται επιφύλαξη:

– Πιθανότητα και όρια κλιμάκωσης: ορισμένες μεγάλες εταιρείες πράγματι υλοποιούν τέτοια προγράμματα και υπάρχουν επιτυχή παραδείγματα· όμως δεν εφαρμόζονται εύκολα παντού. Μικρομεσαίες επιχειρήσεις, κλάδοι με πολύ εξειδικευμένες απαιτήσεις ή τοπικές αγορές εργασίας μπορεί να μην έχουν πόρους/διάδρομο για μαζικό re‑skilling.
– Χρονικό κόστος και επιτυχία: η μετακίνηση σε τεχνικούς ρόλους απαιτεί χρόνο, κίνητρα, και συχνά επιλογή ατόμων με κατάλληλο υπόβαθρο. Δεν είναι δεδομένο ότι κάθε εργαζόμενος θα «μεταμορφωθεί» σε προγραμματιστή σε 3 μήνες.
– Οικονομική και κοινωνική στήριξη: για να λειτουργήσει σε μεγάλη κλίμακα χρειάζονται δημόσιες πολιτικές (επιδοτήσεις εκπαίδευσης, κοινωνικά δίχτυα, πιστοποιήσεις) και εταιρικές ευθύνες.

Πιο ρεαλιστική διατύπωση: «Τα gigs και τα προγράμματα upskilling μπορούν να βοηθήσουν πολλούς εργαζόμενους να μεταβούν σε νέα καθήκοντα, αλλά χρειάζονται πόροι, χρόνος και σχεδιασμός· δεν είναι άμεση ή καθολική λύση για όλες τις απολύσεις.»

2) “Η μισή ανθρωπότητα είναι άμεσα αντικαταστάσιμη”

Ο παρουσιαστής/σχολιαστής λέει πως στη δουλειά του «η μισή» είναι άμεσα αντικαταστάσιμη — σε site, ραδιόφωνο, τηλεόραση, πολιτική, think tanks.

Τι λείπει / γιατί είναι υπερβολή:

– Task‑level ανάλυση: Δεν είναι ρόλοι αλλά εργασίες που αυτοματοποιούνται. Πολλές εργασίες εντός ενός ρόλου είναι αυτοματοποιήσιμες (π.χ. σύνταξη πρόχειρων κειμένων, ρουτίνα fact‑checking), αλλά άλλα στοιχεία του ίδιου ρόλου (ανάλυση, κρίση, συμβολισμός, δημόσια παρουσία) δεν αντικαθίστανται εύκολα.
– Διαβαθμισμένος αντικαταστατισμός: Η πιθανότητα άμεσης αντικατάστασης εξαρτάται από το αν μια εργασία είναι τυποποιημένη/επαναλαμβανόμενη και από την αγορά (επιχειρηματικό μοντέλο, νομοθεσία, ηθική).
– Κοινωνικό κόστος: Η ρητορική «άμεσα αντικαταστάσιμοι» δημιουργεί πανικό χωρίς να προτείνει ρεαλιστικές λύσεις μετάβασης.

Πιο ακριβής πρόταση: «Πολλές ρουτινικές εργασίες σε μέσα και think tanks είναι ευάλωτες· όμως ολόκληροι ρόλοι σπάνια εξαφανίζονται άμεσα — αλλά αλλάζουν δομικά.»

3) Hybrid / συμβιωτική χρήση AI: σωστή επισήμανση αλλά όχι παντοδύναμη

Ζούμε υβριδικά — άνθρωπος και εργαλεία συνεργάζονται, και δεν ξέρουμε ποιο θα υπερισχύσει.

Διευκρίνιση:

– Σωστό: ο τρέχων παράγοντας είναι ο συνδυασμός: άνθρωπος + tool (human‑in‑the‑loop) είναι το πιο ρεαλιστικό μοντέλο σήμερα σε πολλές επαγγελματικές χρήσεις.
– Προσοχή στην πρόβλεψη: ποιες τεχνολογίες «υπερισχύουν» εξαρτάται από επενδύσεις, κανονισμούς, κοινωνικές επιλογές. Η μετάβαση δεν είναι αυτόματη.

4) Agentic AI / «agentic», «agent» — τι σημαίνει και τι δεν κάνει (ακόμη)

Υπάρχει νέα γενιά «agentic AI» (agents) που είναι πιο αυτόνομα από τα generative εργαλεία.

Τι χρειάζεται αποσαφήνιση:

– Ορισμός: Agentic AI συνήθως αναφέρεται σε συστήματα που μπορούν να εκτελέσουν πολλαπλά βήματα, να χρησιμοποιήσουν εργαλεία/API, να σχεδιάσουν ενέργειες και να επιδιώξουν στόχους με μικρότερη ανθρώπινη παρέμβαση.
– Τρέχουσες δυνατότητες: Υπάρχουν εφαρμογές/πρωτότυπα (agents που κάνουν booking, ψάχνουν πληροφορία, συνδυάζουν APIs), αλλά είναι ακόμη ευάλωτα (hallucinations, αποτυχία στόχων, ασφάλεια, ανεπιθύμητες ενέργειες).
– Κίνδυνοι: agentic systems απαιτούν επιπλέον guardrails (π.χ. sandboxing, rate limits, auditing, αποφυγή ανεξέλεγκτων οικονομικών/νομικών ενεργειών).
– Η εικόνα «σήμερα είναι πανίσχυρα και άμεσα αντικαθιστούν» είναι υπερβολική — εξελίσσονται γρήγορα, αλλά η αυτονομία έχει σοβαρά τεχνικά και ρυθμιστικά όρια.

Πιο ακριβής διατύπωση: «Υπάρχει μια νέα τάση προς agentic συστήματα που αναλαμβάνουν αλυσιδωτά βήματα· όμως προς το παρόν χρειάζονται στενή εποπτεία και τεχνικά μέτρα ασφάλειας πριν αντικαταστήσουν ανθρώπινη εργασία σε κρίσιμα πεδία.»

5) Ρύθμιση: GDPR, AI Act, Digital Services — σωστή η γενική εικόνα αλλά λάθη/ασάφειες σε λεπτομέρειες

Υπάρχουν «τρία acts» που προστατεύουν τους πολίτες: GDPR (2019 αναφέρθηκε), AI‑EU Act, και ένα τρίτο, το Digital Services (αναφέρθηκε ως σήμανση deepfakes).

Διόρθωση / αποσαφήνιση:

– GDPR: Ο Γενικός Κανονισμός για την Προστασία Δεδομένων (GDPR) προτάθηκε το 2016 και εφαρμόστηκε από το 25 Μαΐου 2018. Δεν είναι «του 2019».
– AI Act: Η Ευρωπαϊκή Ένωση εργάστηκε επί του AI Act (πρόταση 2021). Μέχρι το 2024 είχαν υπάρξει σημαντικά βήματα/προσεγγίσεις και πρόνοιες για risk‑based ρύθμιση· η τελική εφαρμογή/επιβολή και οι λεπτομέρειες παραμένουν σε φάσεις εφαρμογής και εκτελεστικών κανόνων.
– Digital Services Act (DSA): Ο DSA (και ο DGA/Digital Governance Act, και ο DMA) ρυθμίζει ευθύνες πλατφορμών· περιλαμβάνει διαφανείς διαδικασίες για περιεχόμενο, αλλά η υποχρέωση ειδικής «σήμανσης deepfakes» περιλαμβάνεται σε προτάσεις και οδηγίες· θέματα συνθετικού περιεχομένου ρυθμίζονται από συνδυασμό DSA, AI Act και ειδικών οδηγιών/ποικίλων πρωτοβουλιών.
– Συμπέρασμα: Είναι σωστό να πει κανείς ότι υπάρχουν ρυθμίσεις που στοχεύουν στην προστασία· όμως οι λεπτομέρειες και οι μηχανισμοί εφαρμογής είναι πιο σύνθετοι από μία λίστα «τριών νόμων».

Πιο ακριβές statement: «Η Ε.Ε. προωθεί πλαίσιο (GDPR, DSA, και τις ρυθμίσεις του AI Act) για να μειώσει κινδύνους· όμως η εφαρμογή, οι τεχνικοί κανόνες και η ισχύς των μέτρων εξακολουθούν να καθορίζονται.»

6) Επιρροή AI στην ψήφο / εκλογές — απαίτηση αποδείξεων

Στις τελευταίες αμερικανικές εκλογές ο κίνδυνος παραπλάνησης με AI ήταν χαμηλός, όπως έδειξαν έρευνες.

Σχόλιο:

– Η επίδραση της AI/συνθετικού περιεχομένου σε εκλογές είναι ένα ενεργό ερευνητικό αντικείμενο. Ορισμένες μελέτες δείχνουν περιορισμένη άμεση επίδραση σε συγκεκριμένες εκλογές, άλλες επισημαίνουν κινδύνους (αυξημένη κλίμακα παραπληροφόρησης, micro‑targeting). Δεν μπορεί κανείς να εξαγάγει γενικό κανόνα χωρίς να αναφέρει συγκεκριμένες μελέτες και πλαίσια.

Προτεινόμενη προσέγγιση: «Υπάρχουν έως τώρα περιορισμένες ενδείξεις για μαζική μεταβολή εκλογικών αποτελεσμάτων λόγω AI, αλλά ο κίνδυνος κλιμακούμενης παραπληροφόρησης παραμένει και απαιτεί προληπτικά μέτρα.»

7) Προσωπικότητα και δημιουργικότητα — σωστή σκέψη αλλά όχι απόλυτο πλεονέκτημα

Η προσωπικότητα, η απρόβλεπτη ανθρώπινη έκφραση και το συναίσθημα δεν μπορούν εύκολα να αναπαραχθούν από AI.

Σωστό, αλλά με αποχρώσεις:

– Τα μοντέλα μπορούν να μιμηθούν προσωπικούς τόνους και στιλ και να προκαλέσουν συναισθηματική αντίδραση — μερικοί χρήστες δυσκολεύονται να διακρίνουν.
– Ωστόσο, η αυθεντική, βιωμένη προσωπικότητα (βασισμένη σε εμπειρία, αξίες, ηθική συνείδηση και ιστορία ζωής) παραμένει διαφοροποιητικός παράγοντας· αυτό είναι ένα σημαντικό επιχείρημα υπέρ της ανθρώπινης προστιθέμενης αξίας.
– Η πρόκληση είναι ότι τα μοντέλα μπορούν να «υποδυθούν» προσωπικότητα, πράγμα που δημιουργεί ηθικά και νομικά ζητήματα (π.χ. παραποίηση ταυτότητας, deepfake προσωπικοτήτων).

Πιο ισορροπημένη διατύπωση: «Η ανθρώπινη προσωπικότητα και η βιωματική δημιουργικότητα παραμένουν κρίσιμες διαφοροποιήσεις· όμως τα συστήματα μπορούν να μιμηθούν στυλ και να επηρεάσουν συναισθήματα, που θέτει δεοντολογικά ζητήματα.»

8) «Να βρω ένα εργαλείο να βγάλω δεκαπέντε εκατομμύρια» — κυνική εικόνα, μη ρεαλιστική υπόσχεση

Ιδέα ότι με AI μπορεί κάποιος γρήγορα και εύκολα να βγάλει μεγάλα ποσά (π.χ. trading).

Πραγματικότητα:

– Υπάρχουν προσπάθειες να χρησιμοποιηθούν AI για trading, αλλά οι αγορές ανταγωνίζονται με πολλούς πόρους και σύνθετους αλγορίθμους. Η ιδέα «αποκλειστικό εργαλείο που βγάζει μεγάλα χρήματα χωρίς κόπο» είναι συνήθως μύθος και επικίνδυνη προσέγγιση.
– Έξυπνη επιχειρηματικότητα μπορεί να δημιουργήσει αξία με AI, αλλά απαιτεί δεξιότητες, κεφάλαια, επιχειρηματικό μοντέλο και διαχείριση κινδύνου.

……………………………………………………………………….

Η τέταρτη ενότητα εστιάζει σε τρία κρίσιμα θέματα: την επιρροή των μαζικών, φτωχών μεταφράσεων στη νέα ελληνική και στο εκπαιδευτικό πλαίσιο, τη δημογραφία/ψηφιακό αναλφαβητισμό ως παράγοντες ευαλωτότητας, και τους κινδύνους‑ευκαιρίες σε χρηματοπιστωτικά και καλλιτεχνικά πεδία. Περιέχει εύστοχες επισημάνσεις, αλλά και γενικεύσεις και αοριστίες που χρειάζονται αποσαφήνιση και προτάσεις πολιτικής.

1) «Οι φτηνές μαζικές μεταφράσεις θα «διαφθείρουν» την ελληνική»

Οι μαζικές, χαμηλής ποιότητας μεταφράσεις σε μεγάλα sites δίνουν «σώμα κειμένων» που εκπαιδεύει ΑΙ και έτσι «φεύγει» η ελληνική.

– Σωστή ανησυχία: Η ποιότητα των δεδομένων εκπαίδευσης επηρεάζει άμεσα τα αποτελέσματα των γλωσσικών μοντέλων· αν η πηγή είναι γεμάτη αδέξιες ή μη‑τυπικές μεταφράσεις, αυτό μπορεί να επιδεινώσει την ποιότητα παραγωγής.
– Όμως χρειάζεται τεκμηρίωση: Η απλή διαπίστωση «η μισή παραγωγή είναι φτηνή μετάφραση» είναι ρητορική. Απαιτούνται μετρήσεις για το ποσοστό χαμηλής ποιότητας μεταφράσεων σε ελληνικά corpora και το βαθμό που αυτά χρησιμοποιούνται για training.
– Πρόταση: Δημιουργία ελεγχόμενων, υψηλής ποιότητας ελληνικών corpora (αναθεματοποιημένων και ελεγχόμενων για ποιότητα) και metadata pipelines που διασφαλίζουν provenance — αντί για παθητική αποδοχή πηγών.

2) «Τα newsroom με λίγους δημοσιογράφους προωθούν μαζική φτωχή παραγωγή»

– Σωστή επισήμανση: Συνθήκες πίεσης σε ψηφιακά μέσα οδηγούν σε ταχεία αναπαραγωγή ειδήσεων και αυτό ευνοεί αυτοματοποιημένες λύσεις.
– Επισήμανση προς μετριοπάθεια: Η παρουσία μιας «μικρής ομάδας που βγάζει 100 ειδήσεις σε 2 ώρες» μοιάζει υπερβολική· χρειάζεται συγκεκριμένο παράδειγμα/στοιχεία πριν αναπαραχθεί ως δεδομένο.
– Πρόταση: Μέτρα διαφάνειας από τα μέσα — ετικέτες «μεταφρασμένο/αυτόματο κείμενο», πολιτικές δημοσιογραφικής επαλήθευσης, και ενίσχυση τοπικού δημοσιογραφικού έργου.

3) Εκπαίδευση, δημογραφικό και ψηφιακό χάσμα

Η Ελλάδα έχει πρόβλημα δημογραφικό και ψηφιακού αναλφαβητισμού· πρέπει γρήγορα προγράμματα στα σχολεία και ευρύ κύμα κατάρτισης ενηλίκων.

– Σωστό και επείγον: Χρειάζονται multi‑ministerial δράσεις (Παιδείας, Εργασίας, Ψηφιακής Διακυβέρνησης) για:
– Ενσωμάτωση βασικών μαθημάτων AI / ψηφιακής παιδείας στο σχολικό πρόγραμμα,
– Μαζικά προγράμματα upskilling για ενήλικες (voucher, μικροcredentials),
– Ψηφιακή ένταξη ηλικιωμένων και ευάλωτων ομάδων.
– Σημείο βελτίωσης: Ο σχεδιασμός πρέπει να λαμβάνει υπόψη τοπικές ανάγκες, χρόνους μάθησης και πόρους — όχι «να τρέξουμε χθες» χωρίς βιωσιμότητα.

4) Κίνδυνοι στην αγορά εργασίας και χρήσεις αλγοριθμικών φίλτρων σε προσλήψεις

Τα εργαλεία «κόβουν» υποψηφίους γρήγορα (ATS/AI screening).

– Αληθές αλλά απαιτείται ρύθμιση: Αυτή η πρακτική ήδη προκαλεί bias και αποκλεισμούς. Χρειάζονται:
– Κανόνες διαφάνειας για τα κριτήρια αυτόματου screening,
– Δικαιώματα προσβολής/αναθεώρησης από υποψηφίους,
– Πρότυπα για αξιολόγηση fairness των εργαλείων.
– Πρόταση πολιτικής: Ρυθμίσεις τύπου auditing/impact assessment για HR‑AI εργαλεία.

5) Χρηματοπιστωτικά: «θα οδηγήσουν σε παγκόσμιο κραχ;»

Κίνδυνος arms race μεταξύ αλγόριθμων traders και μη θεμιτές πρακτικές.

– Εν μέρει σωστό: Η αυτοματοποίηση στις αγορές επιτείνει ανταγωνισμό και νέους κινδύνους (flash crashes, market manipulation μέσω bots).
– Τι λείπει: Αναφορά σε υφιστάμενους μηχανισμούς εποπτείας (market surveillance, testing αλγορίθμων) και σε ανάγκη ενίσχυσης τους.
– Πρόταση: Ενίσχυση εποπτικών δομών (stress‑tests για AI trading agents, sandboxing, απαιτήσεις απολογισμού αποφάσεων).

6) Τέχνη και δημιουργικότητα

AI μπορεί να κάνει «τέχνη», να αποδώσει στιλ, αλλά η αυθεντική προσωπικότητα και η έκπληξη παραμένουν ανθρώπινο πλεονέκτημα.

– Ισορροπημένη θεώρηση: Τα εργαλεία ήδη παράγουν έργα που συγκινούν, αλλά υπάρχει διάκριση μεταξύ μίμησης/στυλ και αυθεντικής δημιουργικής πρότασης με βιογραφικό‑ηθική αξία.
– Ζητήματα: πνευματικά δικαιώματα, παραποίηση στιλ/υπογραφής, και αξιοποίηση «προσωπικοτήτων» (deepfake art).
– Πρόταση: Νομική και δεοντολογική καθοδήγηση για credits, provenance, και new forms of copyright για συνθετικό/συνεργατικό έργο.

Προτεινόμενες πολιτικές/τεχνικές παρεμβάσεις (σύντομη λίστα)

– Δημιουργία και χρηματοδότηση υψηλής ποιότητας ελληνικών datasets (curated corpora) για εκπαιδεύσεις γλωσσικών μοντέλων.
– Ετικετοποίηση περιεχομένου: υποχρεωτική σήμανση αυτοματοποιημένων/μεταφρασμένων κειμένων από πλατφόρμες και μέσα.
– Εθνικό πρόγραμμα ψηφιακής ένταξης: vouchers upskilling, μικροπιστοποιήσεις, επιδότηση επανακατάρτισης για ευάλωτες ομάδες.
– Ρύθμιση HR‑AI: auditing, διαφάνεια κριτηρίων, δικαίωμα αναθεώρησης αποφάσεων.
– Financial AI governance: sandboxing, testing, κανόνες ευθύνης και αποθέματος τεχνικών stress tests.
– Προώθηση έρευνας/SME support για ελληνικά μοντέλα γλώσσας, με δημόσιο/ακαδημαϊκό συντονισμό.
– Ενίσχυση τοπικής δημοσιογραφίας και quality journalism grants για να αντιμετωπιστεί η «μαζική φτηνή παραγωγή».

Πού χρειάζεται περισσότερη τεκμηρίωση από τους ομιλητές

– Ποσοτικά στοιχεία για την έκταση της «φτωχής μετάφρασης» στα ελληνικά corpora.
– Παραδείγματα newsroom και ακριβή workflows (όχι υπερβολές).
– Στοιχεία για τον πραγματικό ρόλο που παίζουν τα εργαλεία σε προσλήψεις (στατιστικά απορρίψεων ανά λεπτά/ώρες).
– Δεδομένα/μελέτες για την επιρροή AI σε πρόσφατες εκλογές (αναφορές, μεθοδολογία).

Η συζήτηση Μπογδάνου–Τσερπέλη άνοιξε σημαντικά θέματα — από την εργασία και τη γλώσσα μέχρι την τέχνη και την αγορά. Η δημόσια ωριμότητα απαιτεί σκληρή αλλά τεκμηριωμένη γλώσσα: να αναγνωρίζουμε τις δυνατότητες της ΤΝ, να μην υπεραπλουστεύουμε τους κινδύνους και να απαιτούμε αποδείξεις όταν διατυπώνονται καθοριστικές κρίσεις. Αν οι ομιλήτριες και οι ομιλητές διαθέτουν στοιχεία ή μελέτες που στηρίζουν τους πιο ευρείς ισχυρισμούς τους, ας τις παρουσιάσουν — η δημοκρατική συζήτηση κερδίζει από την τεκμηρίωση.

Το άρθρο συντάχθηκε με τη βοήθεια του GretAi. Το Video “Εσύ θα καταστραφείς ή θα μεγαλουργήσεις; Κορυφαία Ελληνίδα ειδικός στην Τεχνητή Νοημοσύνη απαντά” αναρτήθηκε 28/11/2025 στο Youtube κανάλι Constantinos Bogdanos – The Greek conservative