Generative künstliche Intelligenz -Service -Produkte wie Chatgpt und Midjourney ziehen die Aufmerksamkeit des Marktes auf sich. Vor diesem Hintergrund veranstaltete die Korea Artificial Intelligence Industry Association (Kaiia) den 'Gen-Ai Summit 2023' bei Coex in Samseong-dong, Seoul. Die zweitägige Veranstaltung zielt darauf ab, die Entwicklung von generativen künstlichen Intelligenz (AI) zu fördern und voranzutreiben, was den gesamten Markt erweitert.
Am ersten Tag, beginnend mit der Keynote-Rede von Jin Junhe, Leiterin der Geschäftsabteilung für künstliche Intelligenz Fusion, große Technologieunternehmen wie Microsoft, Google und AWS, die Chatgpt aktiv entwickeln und bedienen, sowie Fabless-Industrien, die künstliche Intelligenz-Halbleiter teilnahmen, besuchten und machten relevante Präsentationen, einschließlich „NLP-Veränderungen, die von Chatgpt-ChatgPs-Veränderungen übernommen wurden. Hochleistungs-, Leistungswirkungs- und skalierbarer KI-Inferenzchip für Chatgpt “von Furiosa-AI-CEO BAEK Jun-ho.
Jin Junhe sagte, dass der ChatGPT -Stecker im Jahr 2023, dem Jahr des künstlichen Intelligenzkrieges, als neue Spielregel für den enormen Sprachmodellwettbewerb zwischen Google und MS in den Markt eintreten werde. In diesem Fall sieht er Chancen in KI -Halbleitern und Beschleunigern vor, die KI -Modelle unterstützen.
Furiosa AI ist ein repräsentativer Fabless Company Manufacturing AI -Halbleiter in Korea. Der CEO von Furiosa AI, Baek, der hart daran arbeitet, allgemeine AI-Halbleiter zu entwickeln, um Nvidia einzuholen, die den größten Teil des Weltmarktes in Hyperscale AI hält, ist überzeugt, dass „die Nachfrage nach Chips im KI-Feld in der Zukunft explodieren wird“ “in der Zukunft" explodieren wird ""
Wenn die KI -Dienste komplexer werden, sind sie unweigerlich erhöhte Infrastrukturkosten ausgesetzt. Die aktuellen GPU-Produkte von NVIDIA haben die für das künstliche Intelligence Computing erforderliche hohe Leistung und Rechenleistung. Aufgrund der Anstieg der Gesamtkosten, wie z. Das Kosten-Nutzen-Verhältnis äußerte sich besorgt.
In dieser Hinsicht sagte Baek die Richtung der technologischen Entwicklung voraus und sagte, dass zusätzlich zu mehr Unternehmen, die künstliche Intelligenzlösungen anwenden, die Marktnachfrage darin bestehen wird, die Effizienz und Leistung innerhalb eines bestimmten Systems wie „Energieeinsparung“ zu maximieren.
Darüber hinaus betonte er, dass der Spread -Punkt der Entwicklung der künstlichen Intelligenz -Halbleiter in China "Usability" sei und sagte, wie die Unterstützung und die „Programmierbarkeit“ der Entwicklungsumgebung gelöst werden soll.
Nvidia hat CUDA aufgebaut, um sein Support -Ökosystem zu demonstrieren, und sicherzustellen, dass die Entwicklungsgemeinschaft repräsentative Rahmenbedingungen für Deep -Lernen wie Tensorflow und Pytoch unterstützt, wird zu einer wichtigen Überlebensstrategie für die Produktisierung.
Postzeit: Mai-29-2023