Η Ιταλία έριξε την “βόμβα” στον κόσμο της τεχνητής νοημοσύνης, επιβάλλοντας πρόστιμο 15 εκατομμυρίων ευρώ στην OpenAI για παραβιάσεις προσωπικών δεδομένων μέσω του ChatGPT.
Το Garante, η αρχή προστασίας δεδομένων της χώρας, κατέληξε ότι η εταιρεία επεξεργάστηκε προσωπικά δεδομένα χρηστών για την εκπαίδευση του ChatGPT χωρίς την απαραίτητη νομική βάση και παραβίασε τις αρχές διαφάνειας, αγνοώντας τις υποχρεώσεις ενημέρωσης προς τους χρήστες.
Αυτή η απόφαση έρχεται να ρίξει φως σε ένα κρίσιμο ζήτημα: την αλόγιστη χρήση προσωπικών δεδομένων από τεχνολογικούς κολοσσούς. Η OpenAI, μια από τις πιο ισχυρές εταιρείες στον τομέα της τεχνητής νοημοσύνης, δήλωσε ότι το πρόστιμο είναι “δυσανάλογο” και σκοπεύει να το εφεσιβάλει. Παρόλο που τόνισε τη δέσμευσή της για συνεργασία με τις αρχές παγκοσμίως, το Garante αποκάλυψε κενά, όπως η έλλειψη αποτελεσματικού συστήματος επαλήθευσης ηλικίας, το οποίο άφησε παιδιά κάτω των 13 ετών εκτεθειμένα σε ακατάλληλο περιεχόμενο.
Η υπόθεση αυτή υπογραμμίζει την αυξανόμενη ανησυχία για τη συλλογή δεδομένων από εργαλεία τεχνητής νοημοσύνης που έχουν γίνει αναπόσπαστο κομμάτι της καθημερινότητάς μας. Το ChatGPT, όπως και παρόμοια συστήματα, βασίζεται στην απορρόφηση τεράστιου όγκου πληροφοριών, πολλές φορές χωρίς ξεκάθαρη συναίνεση από τους χρήστες. Το γεγονός αυτό δεν είναι απλώς νομικό ζήτημα, αλλά χτυπά στην καρδιά της ιδιωτικότητας και της αυτονομίας μας ως άτομα.
Ενώ η OpenAI προωθεί την εικόνα της ως “πρωτοπόρος στην προστασία της ιδιωτικότητας”, είναι εύλογο να αναρωτηθούμε αν η πραγματικότητα ανταποκρίνεται στις δηλώσεις της. Το πρόστιμο μπορεί να μοιάζει μεγάλο, αλλά πρέπει να το δούμε υπό το πρίσμα της ανάγκης για πραγματική λογοδοσία. Δεν είναι δυνατόν οι τεχνολογικοί κολοσσοί να λειτουργούν χωρίς όρια, παρακάμπτοντας δικαιώματα που προστατεύονται από νόμους και συνθήκες.
H απόφαση της Ιταλίας είναι ένα ηχηρό μήνυμα ότι οι εποχές της ασυδοσίας τελειώνουν. Οι κυβερνήσεις ανά τον κόσμο, με την Ευρωπαϊκή Ένωση να ηγείται μέσω του AI Act, εργάζονται για να βάλουν “φρένο” στις ανεξέλεγκτες πρακτικές της τεχνητής νοημοσύνης. Η προστασία των προσωπικών δεδομένων δεν πρέπει να θεωρείται προαιρετική. Είναι θεμελιώδες ανθρώπινο δικαίωμα που υπερβαίνει τα επιχειρηματικά μοντέλα των τεχνολογικών εταιρειών.
Η ευρεία δημοτικότητα του ChatGPT και άλλων γενετικών μοντέλων AI δεν πρέπει να λειτουργεί ως δικαιολογία για τη συστηματική παραβίαση της ιδιωτικότητας. Αντίθετα, η επιτυχία αυτών των εργαλείων πρέπει να συνοδεύεται από αυξημένη ευθύνη. Στο τέλος της ημέρας, αυτό που διακυβεύεται δεν είναι μόνο τα δεδομένα μας, αλλά η ίδια μας η ελευθερία να ελέγχουμε ποιοι είμαστε και πώς χρησιμοποιούνται οι πληροφορίες μας.