Oreksi për pajisje për të trajnuar modelet e AI është i pangopur.

Çipat e inteligjencës artificiale parashikohen të përbëjnë deri në 20% të tregut total të gjysmëpërçuesve prej 450 miliardë dollarësh deri në vitin 2025, sipas McKinsey. Dhe The Insight Partners parashikon që shitjet e çipave të AI do të rriten në 83.3 miliardë dollarë në 2027 nga 5.7 miliardë dollarë në 2018, një normë e përbërë e rritjes vjetore prej 35%. (Kjo është afër 10 herë norma e parashikuar e rritjes për çipat jo-AI.)

Për shembull, Tenstorrent, startup-i i harduerit me AI i drejtuar nga ndriçuesi inxhinierik Jim Keller, këtë javë njoftoi se mblodhi 100 milionë dollarë në një raund financimi të kartëmonedhave të konvertueshme, bashkë-drejtuar nga Hyundai Motor Group dhe Samsung Catalyst Fund.

Në të vërtetë, 50 milionë dollarë nga totali erdhën nga dy njësitë e prodhimit të makinave të Hyundai, Hyundai Motor (30 milionë dollarë) dhe Kia (20 milionë dollarë), të cilat planifikojnë të bashkëpunojnë me Tenstorrent për të zhvilluar së bashku çipa, veçanërisht CPU dhe bashkëpërpunues AI, për të ardhmen. mjete lëvizëse dhe robotë. Samsung Catalyst dhe fonde të tjera VC, duke përfshirë Fidelity Ventures, Eclipse Ventures, Epiq Capital dhe Maverick Capital, kontribuan me 50 milionë dollarët e mbetur.

Ndryshe nga kapitali, një kartëmonedhë e konvertueshme është borxhi afatshkurtër që konvertohet në kapital pas një ngjarjeje të paracaktuar. Pse Tenstorrent zgjodhi borxhin mbi kapitalin nuk është plotësisht e qartë – as vlerësimi i kompanisë pas parasë. (Tenstorrent e përshkroi atë si një "rritje" në një publikim.) Tenstorrent grumbulloi për herë të fundit 200 milionë dollarë në një vlerësim që eklipson 2 miliardë dollarë.

Transhi i kartëmonedhës së konvertueshme, i cili kishte pjesëmarrje nga Fidelity Ventures, Eclipse Ventures, Epiq Capital, Maverick Capital dhe më shumë, e sjell totalin e Tenstorrent të mbledhur në 334.5 milionë dollarë. Keller thotë se do të vihet drejt zhvillimit të produktit, dizajnimit dhe zhvillimit të çipleteve të AI dhe udhërrëfyesit të softuerit të mësimit të makinerive të Tenstorrent.

Tenstorrent me bazë në Toronto shet procesorë AI dhe licencon zgjidhjet softuerike të AI dhe IP rreth RISC-V, arkitektura e grupit të udhëzimeve me burim të hapur që përdoret për të zhvilluar procesorë të personalizuar për një sërë aplikacionesh.

Founded in 2016 by Ivan Hamer (a former embedded engineer at AMD), Ljubisa Bajic (the ex-director of integrated circuit design at AMD) and Milos Trajkovic (previously an AMD firmware design engineer), Tenstorrent early on poured the bulk of its resources into developing its own in-house infrastructure. In 2020, Tenstorrent announced Grayskull, an all-in-one system designed to accelerate AI model training in data centers, public and private clouds, on-premises servers and edge servers, featuring Tenstorrent’s proprietary Tensix cores.

But in the intervening years, perhaps feeling the pressure from incumbents like Nvidia, Tenstorrent shifted its focus to licensing and services and Bajic, once at the helm, slowly transitioned to an advisory role.

In 2021, Tenstorrent launched DevCloud, a cloud-based service that lets developers run AI models without first having to purchase hardware. And, more recently, the company established partnerships with India-based server system builder Bodhi Computing and LG to build Tenstorrent’s products into the former’s servers and the latter’s automotive products and TVs. (As a part of the LG deal, Tenstorrent said it would work with LG to deliver improved video processing in Tenstorrent’s upcoming data center products.)

Tenstorrent — nothing if not ambitious — opened a Tokyo office in March to expand beyond its offices in Toronto as well as Austin and Silicon Valley.

The question is whether it compete against the other heavyweights in the AI chip race.

Google created a processor, the TPU (short for “tensor processing unit”), to train large generative AI systems like PaLM-2 and Imagen. Amazon offers proprietary chips to AWS customers both for training (Trainium) and inferencing (Inferentia). And Microsoft, reportedly, is working with AMD to develop an in-house AI chip called Athena.

Nvidia, meanwhile, briefly became a $1 trillion company this year, riding high on the demand for its GPUs for AI training. (As of Q2 2022, Nvidia retained an 80% share of the discrete GPU market.) GPUs, while not necessarily as capable as custom-designed AI chips, have the ability to perform many computations in parallel, making them well-suited to training the most sophisticated models today.

It’s been a tough environment for startups and even tech giants, unsurprisingly. Last year, AI chipmaker Graphcore, which reportedly had its valuation slashed by $1 billion after a deal with Microsoft fell through, said that it was planning job cuts due to the “extremely challenging” macroeconomic environment. Meanwhile, Habana Labs, the Intel-owned AI chip company, laid off an estimated 10% of its workforce.

Complicating matters is a shortage in the components necessary to build AI chips. Time will tell, as it always does, which vendors come out on top.

Të ngjashme