<?xml version="1.0" encoding="utf-8" standalone="yes"?>
<rss version="2.0" xmlns:atom="http://www.w3.org/2005/Atom" xmlns:content="http://purl.org/rss/1.0/modules/content/">
  <channel>
    <title>HyperAccel Tech Blog</title>
    <link>https://hyper-accel.github.io/</link>
    <description>Recent content on HyperAccel Tech Blog</description>
    <image>
      <title>HyperAccel Tech Blog</title>
      <url>https://hyper-accel.github.io/images/logo.png</url>
      <link>https://hyper-accel.github.io/images/logo.png</link>
    </image>
    <generator>Hugo -- 0.152.2</generator>
    <language>ko</language>
    <managingEditor>contact@hyperaccel.ai (HyperAccel)</managingEditor>
    <webMaster>contact@hyperaccel.ai (HyperAccel)</webMaster>
    <lastBuildDate>Fri, 27 Mar 2026 10:38:13 +0900</lastBuildDate>
    <atom:link href="https://hyper-accel.github.io/index.xml" rel="self" type="application/rss+xml" />
    <item>
      <title>Kubernetes 기반 사내 개발 환경 구축기 3편: LPU를 위한 Kubernetes Device Plugin</title>
      <link>https://hyper-accel.github.io/posts/k8s-device-plugin/</link>
      <pubDate>Fri, 27 Mar 2026 10:38:13 +0900</pubDate><author>contact@hyperaccel.ai (HyperAccel)</author>
      <guid>https://hyper-accel.github.io/posts/k8s-device-plugin/</guid>
      <description>&lt;h1 id=&#34;kubernetes-기반-사내-개발-환경-구축기-3편-lpu를-위한-kubernetes-device-plugin&#34;&gt;Kubernetes 기반 사내 개발 환경 구축기 3편: LPU를 위한 Kubernetes Device Plugin&lt;/h1&gt;
&lt;p&gt;안녕하세요! 저는 HyperAccel ML팀에서 DevOps Engineer로 근무하고 있는 전영훈입니다.&lt;/p&gt;
&lt;p&gt;이번 포스팅은 &lt;strong&gt;Kubernetes 기반 사내 개발 환경 구축기&lt;/strong&gt; 시리즈의 3번째 글입니다!&lt;/p&gt;
&lt;p&gt;1편에서는 Kubernetes를 기반으로 하는 개발 환경 구축의 배경과 전체적인 설계 및 방향에 대해서 살펴보았고, 2편에서는 기존 Self-Hosted Runner의 구조적인 한계를 뛰어넘기 위한 ARC 기반 CI/CD 인프라 설계 전략 수립 및 구축 과정에 대해 소개하였습니다. 3번째 글에서는 &lt;strong&gt;Kubernetes 환경 위에서 Custom Resource 활용 시에 필요한 Device Plugin&lt;/strong&gt; 에 관련된 내용을 전달하고자 합니다.&lt;/p&gt;</description>
    </item>
    <item>
      <title>AITER 분석: AMD가 ROCm inference 성능을 2배로 올린 방법</title>
      <link>https://hyper-accel.github.io/posts/rocm-aiter/</link>
      <pubDate>Tue, 17 Mar 2026 10:00:00 +0900</pubDate><author>contact@hyperaccel.ai (HyperAccel)</author>
      <guid>https://hyper-accel.github.io/posts/rocm-aiter/</guid>
      <description>AMD가 ROCm inference 성능을 2배로 올린 AITER 커널 라이브러리를 분석합니다. 4가지 커널 백엔드 전략(Triton, CK, HIP, ASM), JIT 컴파일 파이프라인, 그리고 DeepSeek R1에서 2배 throughput 향상을 달성한 구조를 살펴봅니다.</description>
    </item>
    <item>
      <title>Transformer World: LLM의 기본 구조 뜯어보기</title>
      <link>https://hyper-accel.github.io/posts/what-is-the-transformers/</link>
      <pubDate>Thu, 05 Mar 2026 10:00:00 +0900</pubDate><author>contact@hyperaccel.ai (HyperAccel)</author>
      <guid>https://hyper-accel.github.io/posts/what-is-the-transformers/</guid>
      <description>Transformer 기반 LLM의 내부 구조를 단계별로 살펴보고, Token Embedding·Attention·LM Head 등 각 모듈의 의미와 KV Cache·MHA·GQA 등 최적화 기법을 정리합니다.</description>
    </item>
    <item>
      <title>지피지기면 백전불태 번외편: Pallas Programming Model</title>
      <link>https://hyper-accel.github.io/posts/pallas-programming-model/</link>
      <pubDate>Wed, 25 Feb 2026 14:50:09 +0900</pubDate><author>contact@hyperaccel.ai (HyperAccel)</author>
      <guid>https://hyper-accel.github.io/posts/pallas-programming-model/</guid>
      <description>지피지기면 백전불태 2편에서 살펴본 TPU 아키텍처를 바탕으로, TPU에서 커스텀 커널을 작성할 수 있게 해주는 Pallas 프로그래밍 모델에 대해 알아봅니다.</description>
    </item>
    <item>
      <title>지피지기면 백전불태 4편 : 메모리 용량 병목과 NVIDIA ICMS</title>
      <link>https://hyper-accel.github.io/posts/nvidia-icms-dpu/</link>
      <pubDate>Tue, 24 Feb 2026 21:04:44 +0900</pubDate><author>contact@hyperaccel.ai (HyperAccel)</author>
      <guid>https://hyper-accel.github.io/posts/nvidia-icms-dpu/</guid>
      <description>LLM의 새로운 병목인 KV 캐시 용량 문제를 해결하기 위해 NVIDIA가 제시한 새로운 계층의 스토리지인 ICMS와 이를 관리하는 Bluefield-4 DPU의 기술적 원리를 살펴봅니다.</description>
    </item>
    <item>
      <title>Copy &amp; Paste에서 코딩 에이전트까지: 조용한 변화의 시작</title>
      <link>https://hyper-accel.github.io/posts/how-we-use-ai/</link>
      <pubDate>Thu, 19 Feb 2026 14:16:04 +0900</pubDate><author>contact@hyperaccel.ai (HyperAccel)</author>
      <guid>https://hyper-accel.github.io/posts/how-we-use-ai/</guid>
      <description>&lt;h1 id=&#34;copy--paste에서-자율-코딩-에이전트까지-조용한-변화의-시작&#34;&gt;Copy &amp;amp; Paste에서 자율 코딩 에이전트까지: 조용한 변화의 시작&lt;/h1&gt;
&lt;p&gt;안녕하세요, 하이퍼엑셀 ML 팀 엔지니어 엄태서입니다.&lt;/p&gt;
&lt;p&gt;개발자들 사이에는 이런 농담이 있습니다. “우리 일은 결국 문제를 구글에 검색하고, 첫 번째로 뜨는 링크를 눌러서, Stack Overflow에서 답을 복사해 붙여넣는 거 아니냐?”
어떤 면에서는 AI 코딩 도구의 등장이 우리가 하는 일을 완전히 바꾼 건 아닙니다. 다만 &lt;strong&gt;그 일을 훨씬 더 잘, 훨씬 더 빠르게&lt;/strong&gt; 하게 만들었죠. 지난 몇 달 동안 우리 팀은 AI 보조 개발의 거의 모든 물결을 직접 타 봤습니다. 초기의 단발성 상호작용부터, 지금은 사실상 일상적으로 의존하는 &lt;strong&gt;자율 에이전트&lt;/strong&gt;까지요. 이 글에서는 그 여정이 어떤 모습이었는지, 무엇을 배웠는지, 그리고 앞으로 어디로 향하고 있다고 생각하는지 정리해 보려고 합니다.&lt;/p&gt;</description>
    </item>
    <item>
      <title>Kubernetes 기반 사내 개발 환경 구축기 2편: ARC와 CI/CD 인프라 고도화</title>
      <link>https://hyper-accel.github.io/posts/arc-setup-guide/</link>
      <pubDate>Thu, 12 Feb 2026 09:30:00 +0900</pubDate><author>contact@hyperaccel.ai (HyperAccel)</author>
      <guid>https://hyper-accel.github.io/posts/arc-setup-guide/</guid>
      <description>HyperAccel의 CI/CD 인프라를 Actions Runner Controller(ARC) 기반으로 전면 재설계한 기술적 여정과 Vault JWT/Kubernetes Auth 이중 연동, 그리고 자체 개발한 Go 기반 Prometheus Exporter를 통한 파이프라인 관측성(Observability) 확보까지의 전 과정을 다룹니다.</description>
    </item>
    <item>
      <title>Kubernetes 기반 사내 개발 환경 구축기 1편: 왜 Kubernetes인가?</title>
      <link>https://hyper-accel.github.io/posts/development-environment-with-k8s-ch1/</link>
      <pubDate>Mon, 09 Feb 2026 10:38:13 +0900</pubDate><author>contact@hyperaccel.ai (HyperAccel)</author>
      <guid>https://hyper-accel.github.io/posts/development-environment-with-k8s-ch1/</guid>
      <description>&lt;h1 id=&#34;kubernetes-기반-사내-개발-환경-구축기-1편-왜-kubernetes인가&#34;&gt;Kubernetes 기반 사내 개발 환경 구축기 1편: 왜 Kubernetes인가?&lt;/h1&gt;
&lt;p&gt;안녕하세요! 저는 HyperAccel ML팀에서 DevOps Engineer로 근무하고 있는 전영훈입니다.&lt;/p&gt;
&lt;p&gt;이 글을 보시는 분들 중에서 개발자 여러분들은 어떤 환경에서 개발하고 계신가요? 로컬 환경, SSH 서버 접속, 클라우드 서비스를 비롯한 다양한 환경 위에서 개발을 진행하고 계실 것이라고 생각됩니다.&lt;/p&gt;
&lt;p&gt;HyperAccel은 &lt;strong&gt;Kubernetes 클러스터를 기반으로 구축된 환경&lt;/strong&gt; 위에서 개발을 진행하고 있습니다. 개발 진행 시에 필요한 패키지들을 기반으로 제작된 &lt;code&gt;devcontainer&lt;/code&gt;를 기반으로 Pod을 띄우고, container 내부에 접속해서 작업을 진행하는 구조입니다. 사내 개발자분들의 보다 편리한 사용을 위해서 &lt;code&gt;Devcontainer Portal&lt;/code&gt;을 만들어서 제공하고 있습니다.&lt;/p&gt;</description>
    </item>
    <item>
      <title>지피지기면 백전불태 3편 : 엔비디아가 200억 달러에 인수한 그록의 LPU</title>
      <link>https://hyper-accel.github.io/posts/lpu-deep-dive/</link>
      <pubDate>Tue, 03 Feb 2026 11:24:57 +0900</pubDate><author>contact@hyperaccel.ai (HyperAccel)</author>
      <guid>https://hyper-accel.github.io/posts/lpu-deep-dive/</guid>
      <description>그록과 LPU의 탄생 배경과 그들의 하드웨어 / 소프트웨어 설계 철학에 대해 알아보고 엔비디아가 그록을 인수한 의도에 대해 분석해봅니다.</description>
    </item>
    <item>
      <title>Specs are All You Need: Spec-Driven Development (SDD)란 무엇인가?</title>
      <link>https://hyper-accel.github.io/posts/what-is-sdd/</link>
      <pubDate>Tue, 03 Feb 2026 10:17:33 +0900</pubDate><author>contact@hyperaccel.ai (HyperAccel)</author>
      <guid>https://hyper-accel.github.io/posts/what-is-sdd/</guid>
      <description>AI 시대의 새로운 개발 방법론, Spec-Driven Development에 대해 알아보고, 프롬프트 엔지니어링을 넘어 스펙(Spec) 엔지니어링으로 나아가는 방향을 제시합니다.</description>
    </item>
    <item>
      <title>Polyhedral Analysis</title>
      <link>https://hyper-accel.github.io/posts/polyhedral-compiler-analysis/</link>
      <pubDate>Thu, 29 Jan 2026 15:10:28 +0900</pubDate><author>contact@hyperaccel.ai (HyperAccel)</author>
      <guid>https://hyper-accel.github.io/posts/polyhedral-compiler-analysis/</guid>
      <description>Polyhedral compiler를 이해하기 위한 Affine 함수/초평면, polyhedron, Farkas lemma 같은 기본 개념부터 iteration/schedule vector, 병렬성 분석, polyhedral transformation까지 핵심 흐름을 간단히 정리한 글입니다.</description>
    </item>
    <item>
      <title>2025년에 바라보는 CES 2026 핵심 정리 (feat. SAMSUNG, SK, LG)</title>
      <link>https://hyper-accel.github.io/posts/ces2026-report/</link>
      <pubDate>Mon, 12 Jan 2026 10:00:00 +0900</pubDate><author>contact@hyperaccel.ai (HyperAccel)</author>
      <guid>https://hyper-accel.github.io/posts/ces2026-report/</guid>
      <description>&lt;h1 id=&#34;2025년에-바라보는-ces-2026-핵심-정리-feat-samsung-sk-lg&#34;&gt;2025년에 바라보는 CES 2026 핵심 정리 (feat. SAMSUNG, SK, LG)&lt;/h1&gt;
&lt;p&gt;안녕하세요? HyperAccel ML팀 소속 박현준입니다.&lt;/p&gt;
&lt;p&gt;1월 6일에 라스베가스에서 시작한 CES가 1월 9일 성황리에 종료되었습니다. 우선 저는 작년(2025년) CES에 참여하여 하이퍼엑셀 부스를 운영했었고, 해당 경험을 바탕으로 올해(2026년) CES를 리뷰해보려고 합니다. 혹자는 왜 작년에 안 올리고 이제서야 올리는지 의문을 가질 수 있는데요,&lt;/p&gt;
&lt;p&gt;&lt;img alt=&#34;뒷북&#34; loading=&#34;lazy&#34; src=&#34;https://hyper-accel.github.io/posts/ces2026-report/images/back_book.jpg&#34;&gt;&lt;/p&gt;
&lt;p&gt;이유는 간단합니다. 작년에는 테크 블로그가 없었기 때문입니다. 작년에 참여한 입장으로서 CES 2026에 대한 기사를 보니 올해는 어땠을지 궁금해졌고, 테크 블로그에 글을 쓰겠다는 명분 덕분에 올해 CES에 대해 알아보는 시간을 가질 수 있었습니다. 아래 목록에 해당되는 분들께는 이번 포스트가 도움이 될 것 같습니다:&lt;/p&gt;</description>
    </item>
    <item>
      <title>지피지기면 백전불태 2편: TPU의 등장과 부상</title>
      <link>https://hyper-accel.github.io/posts/tpu-deep-dive/</link>
      <pubDate>Sat, 03 Jan 2026 17:20:16 +0900</pubDate><author>contact@hyperaccel.ai (HyperAccel)</author>
      <guid>https://hyper-accel.github.io/posts/tpu-deep-dive/</guid>
      <description>2016년 탄생한 구글의 AI 칩 TPU의 등장 배경에 대해 알아보고, 10년간 쌓아올린 하드웨어와 소프트웨어 구조를 파헤쳐보면서 엔비디아 맞서기 위한 구글의 AI 반도체 시장 전략에 대해 분석해봅니다.</description>
    </item>
    <item>
      <title>지피지기면 백전불태 1편: GPU의 역사와 기초</title>
      <link>https://hyper-accel.github.io/posts/how-gpu-works/</link>
      <pubDate>Mon, 29 Dec 2025 10:53:16 +0900</pubDate><author>contact@hyperaccel.ai (HyperAccel)</author>
      <guid>https://hyper-accel.github.io/posts/how-gpu-works/</guid>
      <description>1990년대 그래픽 카드 시절부터 Tesla·CUDA를 거쳐 Hopper에 이르기까지 NVIDIA GPU의 진화 과정을 따라가며, GPU가 어떻게 대규모 병렬성과 스케줄링으로 메모리 레이턴시를 숨기는지 정리한 글입니다.</description>
    </item>
    <item>
      <title>기술 블로그 시작기</title>
      <link>https://hyper-accel.github.io/posts/tech-blog-operation/</link>
      <pubDate>Fri, 26 Dec 2025 10:38:13 +0900</pubDate><author>contact@hyperaccel.ai (HyperAccel)</author>
      <guid>https://hyper-accel.github.io/posts/tech-blog-operation/</guid>
      <description>&lt;h2 id=&#34;tech-blog를-시작하게-된-계기&#34;&gt;Tech Blog를 시작하게 된 계기&lt;/h2&gt;
&lt;p&gt;저희 회사 SW group에는 김재우(&lt;a href=&#34;https://hyper-accel.github.io/authors/jaewoo-kim/&#34;&gt;Author&lt;/a&gt;, &lt;a href=&#34;https://www.linkedin.com/in/jaewoo-kim-b38325237/&#34;&gt;LinkedIn&lt;/a&gt;)님이라는 개발자가 계십니다. 재우님께서는 저희 HW kernel 개발을 위한 언어인 &lt;code&gt;legato&lt;/code&gt;를 개발해주고 계신데요. 재우님께서 몇 달 전부터 꾸준히 요청해주신 것이 있습니다.&lt;/p&gt;
&lt;p&gt;&lt;img alt=&#34;jaewoo-teams&#34; loading=&#34;lazy&#34; src=&#34;https://hyper-accel.github.io/posts/tech-blog-operation/jaewoo-teams.png&#34;&gt;&lt;/p&gt;
&lt;blockquote&gt;
&lt;p&gt;&lt;strong&gt;저희 회사 기술 블로그 하면 안되나요?&lt;/strong&gt;                   (from 재우)&lt;/p&gt;
&lt;/blockquote&gt;
&lt;p&gt;재우님께서는 이전 직장에서 진행하셨던 프로젝트를 기술 블로그에 올렸던 경험이 있으셨고, 그 포스트 덕분에 여러 실력 있는 개발자분들께서 회사에 관심을 가지게 되어 입사까지 하셨던 경험이 있다고 하셨습니다.&lt;/p&gt;
&lt;p&gt;그리고 저도 저희 회사가 &lt;strong&gt;고성능의 LLM Inference Chip을 만들기 위해 고민&lt;/strong&gt;하는 내용, 그 &lt;strong&gt;Chip을 잘 지원하기 위한 Software Stack을 만들기 위해 고민&lt;/strong&gt;하는 바가 엄청나게 많은데, 그것을 외부 개발자분들께 전달드리고 싶다는 생각을 많이 하였습니다.&lt;/p&gt;</description>
    </item>
    <item>
      <title>Crafting Compilers (Chapter 1.1) : 프로그래밍 언어 만들기</title>
      <link>https://hyper-accel.github.io/posts/crafting-compilers-ch1-1/</link>
      <pubDate>Sat, 13 Dec 2025 15:10:28 +0900</pubDate><author>contact@hyperaccel.ai (HyperAccel)</author>
      <guid>https://hyper-accel.github.io/posts/crafting-compilers-ch1-1/</guid>
      <description>&lt;h1 id=&#34;프로그래밍-언어-만들기&#34;&gt;&lt;strong&gt;프로그래밍 언어 만들기&lt;/strong&gt;&lt;/h1&gt;
&lt;p&gt;컴파일러를 만들기 전에, 우리는 먼저 언어를 정의해야 합니다. 프로그래밍 언어는 단순히 구문으로 정의되는 것이 아닙니다. 사실 프로그래밍 언어는 인간과 컴퓨터 사이의 사용자 인터페이스입니다.&lt;/p&gt;
&lt;hr&gt;
&lt;h2 id=&#34;프로그래밍-언어란-무엇인가&#34;&gt;&lt;strong&gt;프로그래밍 언어란 무엇인가?&lt;/strong&gt;&lt;/h2&gt;
&lt;p&gt;추상화는 컴퓨터 과학의 핵심 개념 중 하나입니다. 추상화가 없다면, 컴퓨터로 무언가를 하기 위해서는 전기 신호, 메모리 레이아웃, 레지스터, 그리고 수많은 하드웨어의 특징을 고려해야 할 것입니다.&lt;/p&gt;
&lt;p&gt;프로그래밍 언어는 이러한 복잡성을 단순화합니다. 그것은 아이디어를 표현하는 인간 친화적인 방법을 제공하면서, 그것들을 작동하게 만드는 low-level 메커니즘을 숨깁니다. 이런 의미에서, programming language는 &lt;strong&gt;computing을 위한 UI&lt;/strong&gt;로 기능합니다—하드웨어를 수동으로 조작하는 대신, 로직, 애플리케이션, 그리고 시스템을 구축하는 데 집중할 수 있게 해주는 계층입니다.&lt;/p&gt;</description>
    </item>
    <item>
      <title>NAVER DAN 2025 참관기</title>
      <link>https://hyper-accel.github.io/posts/naverdan2025-report/</link>
      <pubDate>Fri, 05 Dec 2025 13:22:41 +0900</pubDate><author>contact@hyperaccel.ai (HyperAccel)</author>
      <guid>https://hyper-accel.github.io/posts/naverdan2025-report/</guid>
      <description>&lt;h1 id=&#34;naver-dan-2025-참관기&#34;&gt;NAVER DAN 2025 참관기&lt;/h1&gt;
&lt;h2 id=&#34;introduction&#34;&gt;Introduction&lt;/h2&gt;
&lt;p&gt;안녕하세요? HyperAccel ML팀 박신현입니다. 2025년 11월 6~7일 양일간 코엑스에서 열렸던 NAVER DAN 2025에 다녀와서 느낀 점을 공유하려고 합니다.&lt;/p&gt;
&lt;h3 id=&#34;참관-동기&#34;&gt;참관 동기&lt;/h3&gt;
&lt;p&gt;이번 컨퍼런스 참관의 주요 목적은 다음과 같습니다:&lt;/p&gt;
&lt;ol&gt;
&lt;li&gt;
&lt;p&gt;&lt;strong&gt;확장 가능한 스토리지 인프라 인사이트 확보&lt;/strong&gt;: 컴퓨팅 클러스터 내 노드끼리 데이터를 공유하는 것을 넘어, 서로 다른 클러스터 간 데이터를 주고 받을 수 있는 스토리지 인프라 구축을 위한 기술적 인사이트를 얻고자 했습니다.&lt;/p&gt;
&lt;/li&gt;
&lt;li&gt;
&lt;p&gt;&lt;strong&gt;AI 클러스터 자원의 효율적 활용 방식 학습&lt;/strong&gt;: HyperAccel에서는 AI 워크로드를 수행하기 위해 GPU, FPGA로 구성된 AI 클러스터를 운영하고 있습니다. 이러한 AI 클러스터 내 자원을 효율적으로 활용하기 위해, 다른 기업에서는 AI 클러스터를 어떻게 운영하고 있는지 학습하고자 했습니다.&lt;/p&gt;</description>
    </item>
    <item>
      <title>SGLang paper review</title>
      <link>https://hyper-accel.github.io/posts/sglang-review/</link>
      <pubDate>Sat, 29 Nov 2025 15:10:28 +0900</pubDate><author>contact@hyperaccel.ai (HyperAccel)</author>
      <guid>https://hyper-accel.github.io/posts/sglang-review/</guid>
      <description>&lt;h3 id=&#34;sglang의-철학&#34;&gt;SGLang의 철학&lt;/h3&gt;
&lt;p&gt;LLM이 도입된 이후, LLM은 문제 해결, 코드 작성, 질문 답변 등 다양한 분야에서 복잡한 작업을 해결하는 데 사용되어 왔습니다. 오늘날 LLM은 에이전트 능력을 확장하여 인간의 개입 없이 사용자가 요청한 작업을 완료하고 있습니다.&lt;/p&gt;
&lt;p&gt;이를 위해서는 skeleton of thought나 tree of thought와 같은 다양한 프롬프팅 기법이 필요합니다. 즉, 우리는 LLM이 특정 패턴을 따르도록 구조화하여 우리의 요구에 맞추고, 요구사항을 충족하도록 제어하고 안내하기 위한 프로그래밍 가능성을 필요로 합니다.&lt;/p&gt;
&lt;p&gt;저자들은 현재 솔루션에서 이 과정이 비효율적이었다고 주장하며, 그 이유는 다음과 같습니다:&lt;/p&gt;</description>
    </item>
    <item>
      <title>Crafting Compilers</title>
      <link>https://hyper-accel.github.io/posts/crafting-compilers/</link>
      <pubDate>Sun, 16 Nov 2025 15:10:31 +0900</pubDate><author>contact@hyperaccel.ai (HyperAccel)</author>
      <guid>https://hyper-accel.github.io/posts/crafting-compilers/</guid>
      <description>&lt;h1 id=&#34;crafting-compilers&#34;&gt;Crafting compilers&lt;/h1&gt;
&lt;h2 id=&#34;compilers&#34;&gt;Compilers&lt;/h2&gt;
&lt;p&gt;이 포스팅 및 앞으로 쓰게 될 시리즈는 compiler가 무엇인지, 어떻게 만들어지는지, 그리고 직접 compiler를 만드는 방법을 설명하는 시리즈가 될 것입니다. Compiler는 (어느 정도는) 복잡한 프로그램으로, 사람이 작성한 high-level 프로그램(주로 English 형태로 존재하는)을 컴퓨터가 이해할 수 있는 binary 형식으로 변환합니다. Compiler engineering은 이러한 변환 과정을 어떻게 설계할 것인지 결정하는 일입니다.&lt;/p&gt;
&lt;p&gt;우선 &amp;ldquo;프로그램&amp;quot;이 무엇인지, 그리고 어떻게 생겼는지부터 생각해보겠습니다. 저는 프로그램을 하드웨어가 실행해야 하는 명령어들의 순서라고 정의할 수 있다고 생각합니다. 가장 낮은 수준에서는 프로그램은 단순히 &amp;lsquo;1&amp;rsquo;과 &amp;lsquo;0&amp;rsquo;으로 이루어진 명령어들의 시퀀스입니다. 프로그램이 표현되던 초기 형태 중 하나는 IBM 360 같은 컴퓨터에서 사용되던 assembly language였습니다. 과거의 프로그래머들은 하드웨어 명령어를 직접 작성하여, 우주 로켓의 궤적 계산이나 은행 계좌 관리 같은 아주 중요한 프로그램들을 만들었습니다. 이러한 명령어들은 컴퓨터가 각 단계에서 무엇을 해야 하는지를 직접 표현했으며, 프로그래머는 컴퓨터가 가진 모든 하드웨어 디테일을 이해해야 했습니다. Register usage, memory state, 기타 모든 하드웨어 세부 사항을 직접 계산해야 했고, 잘못 계산하면 프로그램이 오작동하거나 심각한 문제가 발생할 수 있었습니다.&lt;/p&gt;</description>
    </item>
    <item>
      <title>Pytorchcon 2025 참관기</title>
      <link>https://hyper-accel.github.io/posts/pytorchcon2025-report/</link>
      <pubDate>Mon, 10 Nov 2025 09:38:03 +0900</pubDate><author>contact@hyperaccel.ai (HyperAccel)</author>
      <guid>https://hyper-accel.github.io/posts/pytorchcon2025-report/</guid>
      <description>&lt;h1 id=&#34;pytorch-conference-2025-참관기&#34;&gt;PyTorch Conference 2025 참관기&lt;/h1&gt;
&lt;h2 id=&#34;introduction&#34;&gt;Introduction&lt;/h2&gt;
&lt;p&gt;안녕하세요? HyperAccel ML팀 Lead 박민호입니다. 지난 10월 22일~23일에 샌프란시스코에서 열렸던 PyTorch Conference 2025에 다녀와서 보고 느낀 점을 공유하려고 합니다.&lt;/p&gt;
&lt;h3 id=&#34;hyperaccel-소개&#34;&gt;HyperAccel 소개&lt;/h3&gt;
&lt;p&gt;&lt;img alt=&#34;hyperaccel&#34; loading=&#34;lazy&#34; src=&#34;https://hyper-accel.github.io/posts/pytorchcon2025-report/hyperaccel.png&#34;&gt;&lt;/p&gt;
&lt;p&gt;저희 &lt;a href=&#34;https://hyperaccel.ai/&#34;&gt;HyperAccel&lt;/a&gt;은 Large Language Model (LLM)을 효율적으로 추론하는 AI Chip을 설계하는 회사입니다. 현재 &lt;a href=&#34;https://docs.hyperaccel.ai/1.5.3/&#34;&gt;FPGA&lt;/a&gt;로 IP 검증을 완료했으며, ASIC 칩 및 서버는 내년에 출시 예정입니다. ASIC에서는 Inference를 위해 PyTorch를 지원하는 SDK를 제공할 예정이며, vLLM 및 Kubernetes 지원 계획입니다.&lt;/p&gt;
&lt;h3 id=&#34;참관-동기&#34;&gt;참관 동기&lt;/h3&gt;
&lt;p&gt;이번 컨퍼런스 참관의 주요 목적은 다음과 같습니다:&lt;/p&gt;</description>
    </item>
    <item>
      <title>About</title>
      <link>https://hyper-accel.github.io/about/</link>
      <pubDate>Thu, 30 Oct 2025 14:27:57 +0900</pubDate><author>contact@hyperaccel.ai (HyperAccel)</author>
      <guid>https://hyper-accel.github.io/about/</guid>
      <description>&lt;h1 id=&#34;hyperaccel&#34;&gt;HyperAccel&lt;/h1&gt;</description>
    </item>
  </channel>
</rss>
