Google δημοσίευσε λεπτομέρειες σχετικά με έναν από τους υπερυπολογιστές τεχνητής νοημοσύνης της, λέγοντας ότι «είναι ταχύτερος και αποδοτικότερος» από τα ανταγωνιστικά συστήματα της Nvidia, καθώς τα μοντέλα μηχανικής μάθησης συνεχίζουν να αποτελούν το πιο «καυτό κομμάτι» της τεχνολογικής βιομηχανίας.
Ενώ η Nvidia κυριαρχεί στην αγορά για την εκπαίδευση και την ανάπτυξη μοντέλων τεχνητής νοημοσύνης, με ποσοστό άνω του 90%, η Google σχεδιάζει και αναπτύσσει chip τεχνητής νοημοσύνης που ονομάζονται Tensor Processing Units ή TPUs από το 2016.
Η Google είναι πρωτοπόρος της ΤΝ και οι υπάλληλοί της έχουν αναπτύξει μερικές από τις σημαντικότερες εξελίξεις στον τομέα την τελευταία δεκαετία. Ωστόσο, ορισμένοι πιστεύουν ότι έχει μείνει πίσω όσον αφορά την εμπορική αξιοποίηση των εφευρέσεών της.
Μοντέλα και προϊόντα τεχνητής νοημοσύνης, όπως το Bard της Google ή το ChatGPT της OpenAI -που υποστηρίζονται από τα chip A100 της Nvidia- απαιτούν πολλούς υπολογιστές και εκατοντάδες ή χιλιάδες chip για να συνεργαστούν, με τους υπολογιστές να λειτουργούν όλο το 24ωρο για εβδομάδες ή μήνες.
Την Τρίτη 4 Απριλίου, η Google δήλωσε ότι είχε κατασκευάσει ένα σύστημα με πάνω από 4.000 TPUs που ενώθηκαν με προσαρμοσμένα εξαρτήματα σχεδιασμένα για την εκτέλεση και την εκπαίδευση μοντέλων AI.
Ο υπερυπολογιστής της Google που βασίζεται στην TPU, που ονομάζεται TPU v4, είναι «1,2x-1,7x ταχύτερος και χρησιμοποιεί 1,3x-1,9x λιγότερη ενέργεια από τον Nvidia A100», έγραψαν οι ερευνητές της Google. Λειτουργεί από το 2020 και χρησιμοποιήθηκε για την εκπαίδευση του μοντέλου PaLM της Google, το οποίο ανταγωνίζεται το μοντέλο GPT του OpenAI.
«Οι επιδόσεις, η επεκτασιμότητα και η διαθεσιμότητα καθιστούν τους υπερυπολογιστές TPU v4 τα “άλογα κούρσας” για μεγάλα γλωσσικά μοντέλα», συνέχισαν οι ερευνητές. Ωστόσο, τα αποτελέσματα της TPU της Google δεν συγκρίθηκαν με το πιο πρόσφατο chip τεχνητής νοημοσύνης της Nvidia, το H100, επειδή είναι πιο πρόσφατο και κατασκευάστηκε με πιο προηγμένη τεχνολογία κατασκευής.
Τα αποτελέσματα και οι κατατάξεις από μια βιομηχανική δοκιμή AI chip, που ονομάζεται MLperf, δημοσιεύθηκαν την Τετάρτη 5 Απριλίου και ο CEO της Nvidia, Jensen Huang, δήλωσε ότι τα αποτελέσματα για το πιο πρόσφατο chip της Nvidia, το H100, ήταν σημαντικά ταχύτερα από την προηγούμενη γενιά.
«Το σημερινό MLPerf 3.0 αναδεικνύει τον Hopper που παρέχει 4 φορές μεγαλύτερη απόδοση από τον A100», έγραψε ο Huang σε μια ανάρτηση στο blog. «Το επόμενο επίπεδο της Generative AI απαιτεί νέα υποδομή AI για την εκπαίδευση μεγάλων γλωσσικών μοντέλων με μεγάλη ενεργειακή αποδοτικότητα».
Η σημαντική ποσότητα ισχύος του υπολογιστή που απαιτείται για την ΤΝ είναι ακριβή και πολλοί στη βιομηχανία της τεχνολογίας επικεντρώνονται στην ανάπτυξη νέων chip και εξαρτημάτων, όπως οι οπτικές συνδέσεις, που μειώνουν την απαιτούμενη ποσότητα ισχύος του υπολογιστή.
Οι απαιτήσεις ισχύος της τεχνητής νοημοσύνης είναι ένα εύφορο πεδίο για τους παρόχους cloud, όπως η Google, η Microsoft και η Amazon, οι οποίοι μπορούν να νοικιάζουν την επεξεργασία των υπολογιστών τους ανά ώρα και να παρέχουν πιστώσεις ή υπολογιστικό χρόνο σε νεοσύστατες επιχειρήσεις. Για παράδειγμα, η Google δήλωσε ότι το Midjourney, μια γεννήτρια εικόνων AI, εκπαιδεύτηκε στα chip TPU της.
Πηγή: CNBC