Κινεζικές AI εταιρείες χρησιμοποίησαν 24.000 ψεύτικους λογαριασμούς για να «αντιγράψουν» το Claude
Η Anthropic κατηγορεί τρεις μεγάλες κινεζικές AI startups ότι δημιούργησαν χιλιάδες πλαστούς λογαριασμούς στο Claude, με στόχο να εξάγουν δεδομένα και να εκπαιδεύσουν τα δικά τους μοντέλα. Η υπόθεση ανοίγει μια σοβαρή συζήτηση για τα όρια του ανταγωνισμού στον χώρο της τεχνητής νοημοσύνης.
Σύμφωνα με την Anthropic, οι εταιρείες DeepSeek, MiniMax και Moonshot AI έστειλαν περίπου 16 εκατομμύρια prompts στο Claude μέσω 24.000 ψεύτικων λογαριασμών. Σκοπός τους ήταν η λεγόμενη «απόσταξη» (distillation): να πάρουν τις απαντήσεις ενός ισχυρού μοντέλου και να τις χρησιμοποιήσουν ως υλικό εκπαίδευσης για τα δικά τους. Ειδικά στοχοποιήθηκαν οι πιο προηγμένες δυνατότητες του Claude, όπως η παραγωγή κώδικα και η λογική συλλογιστική.
Πώς τους εντόπισαν
Η Anthropic εξηγεί ότι ανίχνευσε τη δραστηριότητα μέσω μεταδεδομένων, συντονισμένων χρονικών μοτίβων και κοινών μεθόδων πληρωμής. Οι λογαριασμοί συνδέθηκαν με ερευνητές και ανώτερα στελέχη των τριών κινεζικών εταιρειών. Ένα ιδιαίτερα ενδιαφέρον εύρημα: το Claude χρησιμοποιήθηκε για να δημιουργήσει «ασφαλείς» εναλλακτικές απαντήσεις σε πολιτικά ευαίσθητα ερωτήματα, όπως θέματα σχετικά με αντιφρονούντες, κομματικούς ηγέτες και αυταρχισμό. Πιθανότατα, αυτές οι απαντήσεις χρησιμοποιήθηκαν για να εκπαιδεύσουν τα μοντέλα της DeepSeek ώστε να αποφεύγουν λογοκριμένα θέματα.

Δεν είναι μόνο η Anthropic που παραπονιέται
Η OpenAI είχε ήδη καταγγείλει παρόμοιες πρακτικές. Νωρίτερα τον ίδιο μήνα, η εταιρεία ενημέρωσε Αμερικανούς νομοθέτες ότι η DeepSeek χρησιμοποίησε αντίστοιχες μεθόδους για να αντιγράψει απαντήσεις από τα δικά της μοντέλα, σύμφωνα με υπόμνημα που στάλθηκε στον Λευκό Οίκο. Και η ιστορία δεν σταματά στα δεδομένα: το νεότερο AI μοντέλο της DeepSeek εκπαιδεύτηκε με τα πιο προηγμένα Blackwell chips της Nvidia, παρά το γεγονός ότι η εξαγωγή τους στην Κίνα απαγορεύεται ρητά.
Η ειρωνεία δεν πέρασε απαρατήρητη
Αρκετές γνωστές φωνές στον χώρο της τεχνολογίας σχολίασαν την υποκρισία της κατάστασης. Η επιστήμονας υπολογιστών Timnit Gebru έγραψε στο X: «Αδιάντροποι άνθρωποι που κλέβουν τα δεδομένα όλων και μετά παραπονιούνται ότι τους κλέβουν κι αυτούς». Ο Elon Musk, πάντα πρόθυμος για σχόλιο, αστειεύτηκε: «Πώς τόλμησαν να κλέψουν αυτά που η Anthropic έκλεψε από ανθρώπους προγραμματιστές;»
Το σχόλιο αγγίζει ένα πραγματικό νομικό και ηθικό ζήτημα. Τα μεγάλα γλωσσικά μοντέλα (LLMs) εκπαιδεύτηκαν με τεράστιους όγκους δεδομένων από το διαδίκτυο, συχνά χωρίς ρητή άδεια από τους δημιουργούς τους. Η καταγγελία ότι κάποιος «κλέβει» τα αποτελέσματα αυτής της εκπαίδευσης δημιουργεί ένα παράδοξο που δύσκολα αγνοείται.
Τι σημαίνει αυτό για τις ελληνικές επιχειρήσεις
Η υπόθεση αυτή δεν αφορά μόνο τους γίγαντες της Silicon Valley. Για κάθε ελληνική επιχείρηση που χρησιμοποιεί AI εργαλεία, αναδεικνύει κρίσιμα ερωτήματα. Πρώτον, η ασφάλεια των δεδομένων: όταν στέλνετε ερωτήματα σε ένα AI μοντέλο, ποιος μπορεί να έχει πρόσβαση στις απαντήσεις; Δεύτερον, η αξιοπιστία των μοντέλων: αν ένα φθηνότερο μοντέλο εκπαιδεύτηκε μέσω distillation, η ποιότητά του εξαρτάται από το πόσο καλά αντέγραψε το πρωτότυπο, χωρίς να κατανοεί απαραίτητα τη λογική πίσω από τις απαντήσεις.
Για τις ελληνικές εταιρείες που αξιολογούν AI λύσεις, αξίζει να εξετάζουν την προέλευση και τη μεθοδολογία εκπαίδευσης των μοντέλων που επιλέγουν. Ένα μοντέλο που βασίζεται σε «κλεμμένα» δεδομένα μπορεί να φαίνεται αρχικά ανταγωνιστικό σε τιμή, αλλά ενδέχεται να υστερεί σε ακρίβεια, ενημερώσεις και μακροπρόθεσμη υποστήριξη.
Ο γεωπολιτικός παράγοντας

Η κόντρα εντάσσεται σε ένα ευρύτερο πλαίσιο τεχνολογικού ανταγωνισμού μεταξύ ΗΠΑ και Κίνας. Οι αμερικανικοί περιορισμοί στην εξαγωγή chips, οι περιορισμοί ξένων κεφαλαίων και οι κανονιστικές πιέσεις δημιουργούν ένα περιβάλλον όπου οι κινεζικές εταιρείες αναζητούν εναλλακτικούς τρόπους να παραμείνουν ανταγωνιστικές. Χαρακτηριστικό είναι ότι πολλοί Κινέζοι ιδρυτές AI startups μετακομίζουν στις ΗΠΑ. Όπως δήλωσε ο Luyu Zhang, CEO της Dify: «Η Silicon Valley είναι η Ολυμπιακή αρένα μας».
Αυτή η τάση σημαίνει ότι η αγορά AI θα γίνει ακόμα πιο ανταγωνιστική, με περισσότερα μοντέλα να διεκδικούν μερίδιο. Για τις ελληνικές επιχειρήσεις, αυτό μεταφράζεται σε περισσότερες επιλογές αλλά και μεγαλύτερη ανάγκη για προσεκτική αξιολόγηση.
Ένας αγώνας χωρίς σαφείς κανόνες
Η υπόθεση αποκαλύπτει ένα θεμελιώδες πρόβλημα: η βιομηχανία AI αναπτύσσεται ταχύτερα από τους κανόνες που τη διέπουν. Η τεχνική του distillation βρίσκεται σε γκρίζα ζώνη. Τα Terms of Service την απαγορεύουν, αλλά η τεχνική εφαρμογή της είναι δύσκολο να αποτραπεί πλήρως. Ταυτόχρονα, η ίδια η Anthropic ξοδεύει ολοένα περισσότερα σε lobbying (3,13 εκατομμύρια δολάρια μόνο το 2025) προσπαθώντας να διαμορφώσει τους κανόνες υπέρ της.
Η ιστορία αυτή είναι μια υπενθύμιση ότι στον κόσμο της τεχνητής νοημοσύνης, τα δεδομένα είναι το νέο πετρέλαιο. Και όπως συμβαίνει πάντα με τους πολύτιμους πόρους, οι διαμάχες για την κατοχή τους θα γίνονται ολοένα πιο έντονες. Για όσους χρησιμοποιούν AI εργαλεία, η κατανόηση αυτών των δυναμικών δεν είναι πολυτέλεια. Είναι προϋπόθεση για σωστές αποφάσεις.

