Tajvanski Foxconn priopćio je u ponedjeljak da je pokrenuo svoj prvi tzv. large language model (LLM) umjetne inteligencije, i da planira koristiti tu tehnologiju za poboljšanje proizvodnje i upravljanja opskrbnim lancem.
Model, nazvan FoxBrain, treniran je uz pomoć 120 grafičkih procesora H100 koje proizvodi Nvidia, a pripremljen je za puštanje u pogon u samo mjesec dana, navodi se u priopćenju Foxconna, najvećeg svjetskog elektroničkog dobavljača.
Foxconn u svojim postrojenjima u Kini sastavlja iPhone za Apple i proizvodi Nvidijine servere za umjetnu inteligencij. Iz tvrtke kažu da se njihov FoxBrain temelji na arhitekturi modela Llama 3.1 kojeg je razvila Meta, i tvrde da se radi o prvom tajvanskom LLM-u koji je optimiziran za kinesko i tajvansko pismo i jezične stilove.
Foxconn kaže da po mogućnostima njihov model malo kaska u usporedbi s kineskim “destiliranim” modelom DeepSeek, no dodaju da je ipak vrlo blizu “svjetskim standardima.”
Namijenjen za interne primjene, FoxBrain se bavi analizom podataka, podrškom pri odlučivanju, suradnji na obradi dokumenata, rješavanjem matematičkih problema i rasuđivanjem, kao i generiranjm programerskog koda.
Iz Foxconna kažu da žele surađivati s tehnološkim partnerima na široj primjeni svojeg modela, razmjeni njegovog open-source koda, kao i promicanju umjetne inteligencije u proizvodnji, upravljanju opskrbnim lancima i pametnom donošenju odluka.
Pročitajte još:
Nvidia je pružila podršku tom projektu, upotrebom njihovog superračunala Taipei-1, te je ponudila tehničko savjetovanje za vrijeme treniranja modela. Taipei-1 je najveće superračunalo na Tajvanu, u vlasništvu je Nvidije i smješteno je u Kaohsiungu, gradu na južnom dijelu otoka.
Očekuje se da će Foxconn objaviti više detalja o svom modelu prilikom nVidijine developerske konferencije GTC sredinom ožujka.