Από το prompt στη «νοημοσύνη»: tokens, embeddings, attention, πιθανότητες, και μετά πραγματική πρόβλεψη λέξης. Χωρίς backend (όλα τρέχουν στον browser) - εκπαιδευτική προσομοίωση για να φαίνεται ο μηχανισμός καθαρά.
Χωρίζουμε την πρόταση σε tokens (κομμάτια λέξης/λέξεις). Αυτό είναι το «αλφάβητο» που βλέπει το μοντέλο.
| # | Token | Token ID |
|---|
Κάθε token μετατρέπεται σε διάνυσμα αριθμών. Οι αριθμοί έχουν νόημα σαν σύνολο (μοτίβο), όχι μεμονωμένα. Σκέψου LEGO: κάθε λέξη είναι ένα κομμάτι με «κουμπώματα» (χαρακτηριστικά). Το διάνυσμα περιγράφει αυτά τα «κουμπώματα».
| # | Token | Token ID | Embedding vector |
|---|
Το attention λέει: «Σε ποια προηγούμενα tokens να δώσω βάρος τώρα;». Εδώ χρησιμοποιούμε το τελευταίο token σαν “query” και υπολογίζουμε βάρη (softmax) πάνω σε όλα τα tokens.
| # | Token | Weight |
|---|
Από το “context vector” (μετά το attention) βγάζουμε πιθανότητες για την επόμενη λέξη. Εμφανίζουμε τους top υποψήφιους.
Word-by-word: Αν είναι ενεργό, θα προσθέσει 5 λέξεις μία-μία, ώστε να δεις τη διαδικασία σαν animation.