Tajwański gigant technologiczny, Foxconn, znany głównie z produkcji urządzeń elektronicznych dla czołowych marek, takich jak Apple, ogłosił wprowadzenie swojego pierwszego dużego modelu językowego o nazwie FoxBrain. Ten krok podkreśla rosnące zaangażowanie firmy w rozwój technologii sztucznej inteligencji, mających na celu usprawnienie procesów produkcyjnych i zarządzania łańcuchem dostaw.
Szybkie wdrożenie dzięki współpracy z Nvidią
FoxBrain został opracowany w zaledwie cztery tygodnie, wykorzystując 120 procesorów graficznych Nvidia H100.Model oparty jest na architekturze Llama 3.1 firmy Meta i stanowi pierwszy tajwański duży model językowy zoptymalizowany pod kątem tradycyjnych chińskich i tajwańskich stylów językowych. Chociaż jego wydajność jest nieznacznie niższa w porównaniu z chińskim modelem DeepSeek, FoxBrain zbliża się do światowych standardów w tej dziedzinie.
Zastosowania wewnętrzne i przyszłe plany
Początkowo FoxBrain został zaprojektowany do użytku wewnętrznego w Foxconn i obejmuje takie funkcje, jak analiza danych, wsparcie decyzyjne, współpraca nad dokumentami, rozwiązywanie problemów matematycznych oraz generowanie kodu. Firma planuje jednak rozszerzyć zastosowania modelu poprzez współpracę z partnerami technologicznymi oraz udostępnienie informacji w otwartym kodzie źródłowym, promując tym samym sztuczną inteligencję w produkcji i zarządzaniu łańcuchem dostaw.
Wsparcie ze strony Nvidia i superkomputer Taipei-1
Nvidia odegrała kluczową rolę w rozwoju FoxBrain, oferując wsparcie techniczne oraz udostępniając swój superkomputer Taipei-1, zlokalizowany w Kaohsiung na Tajwanie. Taipei-1, największy superkomputer na wyspie, został uruchomiony pod koniec 2023 roku i jest wykorzystywany do zaawansowanych obliczeń związanych z sztuczną inteligencją oraz cyfrowymi bliźniakami.