Profile img

λ(☕) → 💻

  • Languages: Korean(개쩖), English(totally broken), Japanese(まあまあ), Esperanto(tre iomete), Lineparine(ekce firlex)
  • Interests: home-lab, keyboard(the input system), guitar
ImageStella
@annyeong@stella.place
ImageGitHub
@nyeong
1
3
0
1
0

JLPT 따보려구 책 샀는데 단어 외우기가 너무 힘들어서 아래처럼 시도:

  1. 폰으로 대충 책 촬영 → OCR 인식 → 데이터 획득
  2. 데이터를 yaml로 정리
  3. 한자사전, 일본어사전 붙여서 한국어 독음, 예문, 부수 등 가져오고
  4. 하는 김에 내가 듣는 노래 가사를 DB화하고 여기서 예문을 가져오고
  5. 정리한 데이터를 Anki 덱으로 빌드 (nyeong/amgi)
  6. 홈서버에 actions 붙여서 yaml 수정하면 덱 빌드해서 파일만 획득

예전엔 이런 거 만들면 만들다가 토끼굴 파느랴고 단어를 못 외웠을텐데, 요새는 단어 외우다가 이런거 불편한데, 싶으면 AI한테 시키면 되어서 본질에 좀 더 집중할 수 있다

구매한 JLPT 책의 단어장Anki 덱으로 빌드해서 활용하는 모습홈서버 Forgejo에 올린 단어장 저장소 갈무리
0

와 일본어 한자 공부 너무 어렵다...

経済(けいざい)(경제)는 왜 경제에요? 왜 経(지날 경), 済(건널 제)가 economy가 되나요? 経済는 실은 経世済民(けいせいさいみん)(경세제민)이라는 구절에서 따온 말로, "세상을 다스리고 백성을 구제한다"라는 뜻인데, 経과 済는 본래의 의미 외에도 각각 다스리다, 구하다라는 뜻으로도 쓰임.

근데 経은 糸(실 사)와 圣(힘쓸 골)을 합친건데 왜 "다스릴 경"이에요? 経은 糸에서는 뜻만, 圣에서는 음만 빌려온 형성자로, 본래의 의미는 "실", "엮다"라는 의미이고, 経度(경도)와 같은 한자에서처럼 쓰는데, 이 의미가 확장되어 "지나다"라는 뜻이 되어 経路(경로) 같은 곳에서도 쓰이고, 또 확장되어 "다스리다"라는 뜻이 되어 経営(경영) 같은 곳에서도 쓰이게 됨.

그럼 소리를 圣(힘쓸 골, コチ, コツ)에서 따왔는데 왜 경(ケイ, キョウ)이라고 읽어요? 사실 経은 신자체고, 본래 자형은 經으로, 소리는 巠(물줄기 경, キョウ)에서 따왔기 때문에 經도 경(キョウ)이라고 읽는데, 신자체에서는 巠을 형성자에서 쓸 때에는 圣이라고 쓰기 때문에 経은 糸+圣을 합친 모양새가 됨.

그럼 제는 왜... (이하 생략)

3
2
0
1

JLPT 따보려구 책 샀는데 단어 외우기가 너무 힘들어서 아래처럼 시도:

  1. 폰으로 대충 책 촬영 → OCR 인식 → 데이터 획득
  2. 데이터를 yaml로 정리
  3. 한자사전, 일본어사전 붙여서 한국어 독음, 예문, 부수 등 가져오고
  4. 하는 김에 내가 듣는 노래 가사를 DB화하고 여기서 예문을 가져오고
  5. 정리한 데이터를 Anki 덱으로 빌드 (nyeong/amgi)
  6. 홈서버에 actions 붙여서 yaml 수정하면 덱 빌드해서 파일만 획득

예전엔 이런 거 만들면 만들다가 토끼굴 파느랴고 단어를 못 외웠을텐데, 요새는 단어 외우다가 이런거 불편한데, 싶으면 AI한테 시키면 되어서 본질에 좀 더 집중할 수 있다

구매한 JLPT 책의 단어장Anki 덱으로 빌드해서 활용하는 모습홈서버 Forgejo에 올린 단어장 저장소 갈무리
0

JLPT 따보려구 책 샀는데 단어 외우기가 너무 힘들어서 아래처럼 시도:

  1. 폰으로 대충 책 촬영 → OCR 인식 → 데이터 획득
  2. 데이터를 yaml로 정리
  3. 한자사전, 일본어사전 붙여서 한국어 독음, 예문, 부수 등 가져오고
  4. 하는 김에 내가 듣는 노래 가사를 DB화하고 여기서 예문을 가져오고
  5. 정리한 데이터를 Anki 덱으로 빌드 (nyeong/amgi)
  6. 홈서버에 actions 붙여서 yaml 수정하면 덱 빌드해서 파일만 획득

예전엔 이런 거 만들면 만들다가 토끼굴 파느랴고 단어를 못 외웠을텐데, 요새는 단어 외우다가 이런거 불편한데, 싶으면 AI한테 시키면 되어서 본질에 좀 더 집중할 수 있다

구매한 JLPT 책의 단어장Anki 덱으로 빌드해서 활용하는 모습홈서버 Forgejo에 올린 단어장 저장소 갈무리
3

Fascinating paper: Your Morals Depend on Language (Costa et al., 2014). People make significantly more utilitarian choices in moral dilemmas when the dilemma is presented in a foreign language, apparently because a foreign language dulls emotional responses and shifts the balance toward deliberative thinking.

It matches my own experience. Thinking in a foreign language feels like rendering graphics without GPU acceleration: everything runs on raw CPU, slower and more laborious. After a full day of conversations in English or Japanese, I'm physically exhausted in a way that Korean never does to me. What I didn't quite register until reading this paper is that the “GPU” doing all that fast, effortless processing is largely the emotional system. When it steps back, you end up doing more of the reasoning yourself. Whether that's a feature or a bug probably depends on what you're deciding.

0

TIL bilinguals given the trolley problem in their native language chose to sacrifice one to save five less than 20% of the time. In their second language, about 50% chose to, because a foreign language lowers emotional resonance and triggers more utilitarian reasoning.

journals.plos.org/plosone/arti

reddit.com/r/todayilearned/com

Image
0
0

Image@nyeongAn Nyeong (安寧) '지적 능력'과 '지능의 원리'을 분리해서 생각해야 할 것 같습니다. 전자의 측면에서 보면, LLM과 인간의 능력을 어떤 기준에 따라 측정했을 때 그 차이가 크지 않거나 오히려 LLM이 잘하기도 하니 지능 본질(정확히는 우리가 지적 능력이라고 부르는 것)도 다르지 않다고 취급할 수 있을 것 같아요.

그런데 후자의 측면에서 보면, LLM의 지적 능력을 측정하기 전에 이뤄지는 사전학습과 파인튜닝도 지능의 영역으로 고려해야 한다고 생각해요. 인간 지능은 강화 학습으로 동작하니 LLM과는 다른 매커니즘으로 동작한다는게 자명하죠. 물론 LLM의 크기를 엄청나게 키우면 그 시점에 측정하는 지적 능력이 향상되겠지만, 여전히 사전학습과 파인튜닝에 의존한다면 그게 우리가 기대하는 '진짜 지능'의 모습은 아닐거라고 생각해요.

1

Image@nyeongAn Nyeong (安寧) '지적 능력'과 '지능의 원리'을 분리해서 생각해야 할 것 같습니다. 전자의 측면에서 보면, LLM과 인간의 능력을 어떤 기준에 따라 측정했을 때 그 차이가 크지 않거나 오히려 LLM이 잘하기도 하니 지능 본질(정확히는 우리가 지적 능력이라고 부르는 것)도 다르지 않다고 취급할 수 있을 것 같아요.

그런데 후자의 측면에서 보면, LLM의 지적 능력을 측정하기 전에 이뤄지는 사전학습과 파인튜닝도 지능의 영역으로 고려해야 한다고 생각해요. 인간 지능은 강화 학습으로 동작하니 LLM과는 다른 매커니즘으로 동작한다는게 자명하죠. 물론 LLM의 크기를 엄청나게 키우면 그 시점에 측정하는 지적 능력이 향상되겠지만, 여전히 사전학습과 파인튜닝에 의존한다면 그게 우리가 기대하는 '진짜 지능'의 모습은 아닐거라고 생각해요.

1

Image@nyeongAn Nyeong (安寧) 예측 모델을 구축하는 방식이 다르기 때문에 매커니즘에 근본적인 차이가 있어용. LLM이 여전히 쉽게 환각에 빠지고, 어처구니 없는 답변을 내놓는 것도 결국 인간과 달리 세계 모델을 시뮬레이션하지 않는다는 점에서 오는 한계인 것 같구요. 지금 유행하는 사전학습-파인튜닝 방식으로는 절대 AGI에 도달할 수 없다는 주장이 나오는 이유이기도 하죵.

0

그래서 "LLM이 인간을 대체할 수 없다"는 몇몇 주장은 좀 공허한 것 같음. 예를 들어 LLM은 지능적이지도, 창의적이지도 않다, GIGO다, 데이터의 거울일 뿐이다 등등.

"LLM은 데이터의 거울일 뿐이다"라는 문장 자체에는 동의하는데, 인간은 다른가?는 잘 몰겠숭 똑같은 것 같은데

I, Robot 갈무리

Human : Can a robot write a Symphony? Can a robot take a blank canvas and turn it into a masterpiece?

Roboy : Can you?
0

나¹는 아무리 생각해봐도 지능은 그냥 예측 모델인 것 같음. 다만 LLM과 비교하면 인간이

  1. 감정적이고 (좋고 나쁨을 판단할 때 호르몬이 영향을 끼침)
  2. 멀티모달에 능하고
  3. 모델 업데이트가 즉각적인 것 뿐 아닌가 싶음

그래서 위 다른점이 불필요한 영역에서는 인간보다 낫지 않나 싶고.

[1]: AI와 인간, 그 어느 쪽도 잘 알지 못하는 비전문가

그래서 "LLM이 인간을 대체할 수 없다"는 몇몇 주장은 좀 공허한 것 같음. 예를 들어 LLM은 지능적이지도, 창의적이지도 않다, GIGO다, 데이터의 거울일 뿐이다 등등.

"LLM은 데이터의 거울일 뿐이다"라는 문장 자체에는 동의하는데, 인간은 다른가?는 잘 몰겠숭 똑같은 것 같은데

I, Robot 갈무리

Human : Can a robot write a Symphony? Can a robot take a blank canvas and turn it into a masterpiece?

Roboy : Can you?
3

🍏튜링의 사과 AI 커뮤니티 밋업[AI로 넌 뭘하니?]🤖

🍏튜링의 사과 AI 커뮤니티 밋업[AI로 넌 뭘하니?]🤖

튜링의 사과에서 AI 토론 & 공유 모임을 엽니다.
요즘 다들 AI 자동화, 에이전트 만들고, 서비스도 만들고 있는데
다른 사람들은 AI로 뭘 하고 있을까?그래서 만들어봤습니다.
첫 회는 자유로운 토론의 자리로 진행하고, 의견을 나누어 정기적인 모임을 만들어 보고자 준비했습니다.

📅 2026.03.28
⏰ 14:00 ~ 16:30
👥 선착순 30명 / 노쇼방지를 위해 참여금 5,000원
(튜사 이용권, 음료, 다과 제공)

장소
📍 성수 튜링의사과
서울 성동구 상원길 26 MILK빌딩 B1층 튜링의사과
(2호선 뚝섬역 5번출고 50M 내)

참여 👉
DM 또는 디스코드 티켓or DM문의

AI로 무엇갈 하고 있거나, 새로운 인사이트를 얻거나 공유하고싶다면 편하게 놀러오세요~!

📅 2026-03-28 14:00 — 16:30 (GMT+9)

Organized by: @TuringAppleDev@mastodon.social

View event details

1

나¹는 아무리 생각해봐도 지능은 그냥 예측 모델인 것 같음. 다만 LLM과 비교하면 인간이

  1. 감정적이고 (좋고 나쁨을 판단할 때 호르몬이 영향을 끼침)
  2. 멀티모달에 능하고
  3. 모델 업데이트가 즉각적인 것 뿐 아닌가 싶음

그래서 위 다른점이 불필요한 영역에서는 인간보다 낫지 않나 싶고.

[1]: AI와 인간, 그 어느 쪽도 잘 알지 못하는 비전문가

1

LLM 진짜 궁금한거

  1. "매끄럽다", "매끈하다" 이런 단어 왜 이렇게 좋아하는걸까
  2. 학습 데이터에 조선 산학 책들은 어쩌다가 있는 걸까... 구일집 원문이랑 비교해봤는데 원문 학습시킨게 맞는 것 같음
2
1
1

ImageAn Nyeong (安寧) shared the below article:

왜 gaji인가? - TS로 안전하게 GitHub Actions 작성하기

Image

개발곰 @gaebalgom@hackers.pub

GitHub Actions를 작성할 때 겪는 YAML의 구조적 한계와 타입 검사의 부재를 해결하기 위해 개발된 TypeScript(TS) 기반 도구인 gaji를 소개합니다. 저자는 Toss 인턴 과정에서 수많은 워크플로우를 다루며 느낀 불편함을 바탕으로, 데이터 표현 언어인 YAML 대신 프로그래밍 언어인 TypeScript를 사용하여 동작을 정의하고 실수를 미연에 방지하는 방식을 제안합니다. gaji는 사용자가 참조하는 모든 액션으로부터 로컬에서 즉시 타입을 생성하는 자동 코드젠(code generation) 방식을 채택하여, 커스텀 액션이나 사내 액션에서도 완벽한 자동완성과 타입 체크를 지원하는 것이 특징입니다. 기존의 린터 방식이나 중앙 집중식 타입 관리 도구와 차별화되는 이 도구는 Rust의 빠른 성능과 TypeScript의 범용성을 결합하여 복잡한 워크플로우의 가독성과 유지보수성을 극적으로 향상시킵니다. 비록 최종 산출물은 여전히 YAML이라는 플랫폼의 제약이 있지만, gaji는 개발자가 CI/CD 인프라 구축 과정에서 겪는 피로도를 줄이고 더 안전한 배포 환경을 설계하는 데 유용한 솔루션이 될 것입니다.

Read more →
5

이전에 OCI 인스턴스에 머 세팅 잘못해서 인스턴스를 날려버려야 하는 가슴아픈 상황이 있었는데...

  1. 인스턴스 날리고
  2. 우분투 인스턴스로 새로 세팅하고
  3. nixos-anywhere + disko로 부트스트래핑 해주고
  4. 바로 원래 있던 nix 설정 deploy-rs로 날려주니까 딸깍하고 원래 환경 복구되어서 혼자 물개 박수쳤다

데이터만 잘 관리해주면 Linux-as-a-Code가 되는듯

2

으으음... nix 쓰는 거 점점 부담스러워져서 좀 타개책이 필요하다.

  • nix는 패키지 단위가 아니라 nixpkgs 단위로 버전을 관리하다보니 특정 패키지만 마이너 버전 업하는게 불편하다
    • 나는 A 패키지만 버전업 하고 싶은데용? → 불편하고 힘들게 해야함
  • 각 레포마다 다른 버전의 nixpkgs를 쓰고 있을 수도 있음
    • 이게 의존성 관리에는 문제가 없는데, 내 맥뿍 용량 관리(...)랑 빌드 시간 관리(...)에 영향을 크게 줌
    • 예를 들어 시스템에 이미 A 패키지가 깔려있는데, 어떤 레포에 진입하니 자동으로 A 패키지를 다시 빌드하네? 왜??? 하고 보면 시스템의 nixpkgs와 레포의 nixpkgs 버전이 달라서 그렇다거나
  • darwin-rebuild, nixos-rebuild로만 리빌드하다보니 작은 수정에도 시간이 오래 걸린다
  • home-manager가 돌아가다가 중간에 스크립트가 삐끗하면 그대로 조용히 실패함. 실패라고 알려주는 것도 아니고, 롤백도 아니고, 경고도 아니고, 그거 빼고 실행해주는 것도 아니고, 멈췄다고 알려주는 것도 아니고 그냥 쓱 조용히 멈추고 뒷부분 실행을 안 한다...
    • 가끔 Emcas 설정 로드 안 되어있길래 열심히 뒤적거려보면 이런 문제가 많음
  • 언어가 strict하지 않고 lazy typing이라 그런가 LLM이 종종 해멜 때가 많음
nix-darwin으로 설치한 WezTerm.app이 권한을 요구하는 모습home-manager에서 script가 실패하자 "조용히 실패"한 모습
1

으으음... nix 쓰는 거 점점 부담스러워져서 좀 타개책이 필요하다.

  • nix는 패키지 단위가 아니라 nixpkgs 단위로 버전을 관리하다보니 특정 패키지만 마이너 버전 업하는게 불편하다
    • 나는 A 패키지만 버전업 하고 싶은데용? → 불편하고 힘들게 해야함
  • 각 레포마다 다른 버전의 nixpkgs를 쓰고 있을 수도 있음
    • 이게 의존성 관리에는 문제가 없는데, 내 맥뿍 용량 관리(...)랑 빌드 시간 관리(...)에 영향을 크게 줌
    • 예를 들어 시스템에 이미 A 패키지가 깔려있는데, 어떤 레포에 진입하니 자동으로 A 패키지를 다시 빌드하네? 왜??? 하고 보면 시스템의 nixpkgs와 레포의 nixpkgs 버전이 달라서 그렇다거나
  • darwin-rebuild, nixos-rebuild로만 리빌드하다보니 작은 수정에도 시간이 오래 걸린다
  • home-manager가 돌아가다가 중간에 스크립트가 삐끗하면 그대로 조용히 실패함. 실패라고 알려주는 것도 아니고, 롤백도 아니고, 경고도 아니고, 그거 빼고 실행해주는 것도 아니고, 멈췄다고 알려주는 것도 아니고 그냥 쓱 조용히 멈추고 뒷부분 실행을 안 한다...
    • 가끔 Emcas 설정 로드 안 되어있길래 열심히 뒤적거려보면 이런 문제가 많음
  • 언어가 strict하지 않고 lazy typing이라 그런가 LLM이 종종 해멜 때가 많음
nix-darwin으로 설치한 WezTerm.app이 권한을 요구하는 모습home-manager에서 script가 실패하자 "조용히 실패"한 모습
3
1

AI FOMO에 휩쓸려 뭐라도 해야겠다는 생각이 드는 입문자(?)라면, 대뜸 강의든 장비든 뭐든 비싼 무엇을 사지 말고 다음 두 가지를 하시길 권해봅니다.

  1. 가장 비싼 Plan으로 마음껏 써보기 클로드 코드, 코덱스 등 AI 에이전트 서비스의 가장 비싼 Plan을 한 달 정도는 경험해보세요. 사용량 제한받거나 성능이 떨어지는 AI 모델을 쓰면, AI에 대한 관점도 그 정도에 갇힐 가능성이 커요.

프론티어급 모델을 토큰 화끈하게 사용했을 때 AI 서비스가 제공하는 가치는 꼭 경험해봐야 합니다.

AI 모델 이용료는 더 줄어들 수 있지만, AI 모델을 더 내 손 위에 쥐어주는 AI 에이전트 서비스는 부가가치를 높이는 방향으로 이용료가 낮아지진 않을 겁니다. 게다가 현재는 경쟁하느라 적자 감수하며 퍼주는 것에 가까워서 고객에게 잔치 시기가 끝나면 이용료가 오르거나 제약이 커질 것 같습니다.

제 직업 환경의 상황으로 예로 들지요. 새로운 소프트웨어 개발 도구를 도입할 때, 잘못 도입하면 발생하는 비용이 크기 때문에 많은 시간 분석하고 검증하고, 학습하였습니다. 가치있는 일이지만 시간 비용이 너무 큽니다. 그러나 최근에 AI 코딩 에이전트를 이용해 후보 도구를 동시에 적용해봅니다. 예전엔 여러 사람이 동원되거나 긴 시간을 들여야 했지만, 이제는 혼자서 짧게는 몇 시간, 길어도 며칠 안에 실 경험에 기반한 판단 자료를 도출합니다.

리서칭하는 도구에 대해 직접 조사하거나 AI가 조사한 걸 리뷰하고 재검증하기도 했습니다. 하지만 사용량이 넉넉한 Plan을 사용한 이후로는 사용할 도구가 오픈소스인 경우, 코드 전체를 AI 에게 분석시키곤 합니다. 토큰 사용량으로 보면 1시간도 안 되어 몇 만원을 쓰는 셈인데, 제가 알고싶은 정보를 자세히 학습하기에도 좋고, AI 환각을 줄여주는 데에도 도움이 됩니다.

사용량 제한이 큰 Plan을 사용할 땐 마치 토큰을 아껴쓰느라 예전처럼, 즉 현재처럼 AI를 활용할 엄두를 못냈습니다.

  1. 가능성과 한계 인식하기 1번의 연장인데, 화끈하게 AI 에이전트를 여러 방향으로 사용하다보면 자연스레 생각이 복잡해질텐데, 특히 다음 두 가지를 고민해보세요.
  • 내가 하는 일, 내 환경에 대해 재정의하기
  • 재정의한 내 상황에 비추어 가능성(미래)과 한계(현재)를 정의하기

그동안 많은 일하는 방식, 학습하는 방식, 협업하는 방식은 “사람”을 대상으로, 기준으로 하여 오랜 세월 고도화되어 잡힌 체계입니다. AI는 사람과 다릅니다.

소프트웨어를 만드는 환경을 예로 들겠습니다. 조직의 협업 체계에서 대개는 개발팀, 즉 소프트웨어 개발이 병목 자원입니다. 그래서 병목 자원 관리에 초점을 많추는 소프트웨어 개발 방법이나 협업 체계가 대부분입니다. 과감히 납작하게 본다면, 기획을 조직에 전파하는 용도로 발표 장표를 만드는 이유는, 그 작업 비용이 더 싸기 때문입니다. 전달력이 떨어지지만 전체적으로 봤을 때 저렴한 경우가 많습니다. 만약 발표 장표 만드는 목적이 비용이라면, AI 코딩 에이전트를 사용하여 데모 버전을 만드는 게 더 저렴합니다. 이용료, 시간은 물론이고, 실제 돌아가는 데모 버전의 전달력도 정적인 글, 그림보다 낫습니다.

AI 에이전트를 펑펑 사용하면서 자신이 일하는 체계, 방식에서 사람 간 협업을 기준으로 하는 부분이 무엇인지 고민해보세요.

대체하거나 효율을 높일 부분 뿐만 아니라 한계도 고민하세요. 그 한계가 AI 모델이나 에이전트에서 기인하는 걸 수도 있고, 사람(자기 자신)에게서 기인하는 걸 수도 있습니다.


2번 단계에 오면 다음에 뭘 해야할지 방향이 잡힙니다. 하다못해 강의나 강좌, 책도 무엇을 봐야할지 관점이 생깁니다. 어떤 사람과 어떻게 협업할지, 어떤 도구에 돈을 더 들일지, 내가 몸으로 떼우는 게 나을지. 그 단계에 돈을 쓰세요.

이 과정을 경험하고, 내 관점을 갖는 데 1~2달이면 충분합니다. 요즘처럼 AI 발전이 빠른 시기에 너무 느린 것 아니냐고요. 불과 1년 전만 해도 AI 코딩 에이전트의 수준은 현재와 비교불가 수준이었다는 걸 보면 그런 마음이 들 수 있습니다. 근데, AI가 도구라는 점은 전혀 달라지지 않았습니다. 문제를 정의하고, 실제 문제를 해결하는(execution) 결정과 방식은 사람이 합니다. 끊임없이 새로운 도구는 나왔고 발전해왔지만, hello world에 머무르는 사람은 그때나 지금이나 hello world에 머무르고, 변화를 일으키거나 변화하는 사람도 그때나 지금이나 있어왔습니다.


보안 위협 등 조심해야 할 건 많은데, 이또한 앞서 거론한 “한계”로 파악하는 게 우선입니다. 문제를 알고, 정의할 수 있으면 해결 방법도 찾을 가능성이 큽니다. 더군다나 AI가 끝내주는 점 중 하나는 자연어로 소프트웨어 “엔지니어링”을 실행하는 겁니다. 그리고 “소프트웨어”여서 실행 비용이 상대적으로 저렴하고요.

고환율 시기라 100 USD, 200 USD가 부담스럽지만, 고성능 AI 도구를 다양한 방법으로 써보며 내 생각과 관점을 넓히는 비용으로는 저렴합니다.

7
0
0
0
0
0
1
8
2
5
1

日本(일본)의 TypeScript 컨퍼런스인 TSKaigi 2026이 5() 22()(())–23()(())에 東京(도쿄)에서 開催(개최)된다고 합니다. 함께 가실 韓國(한국) 분 계실까요?

一旦(일단) 저랑 Image@2chanhaeng초무 님하고 Image@kodingwarriorJaeyeol Lee (a.k.a. kodingwarrior) :vim: 님이 같이 가실 것 같습니다.

5
1

Nix + Agent(LLM) 쓰는 거 너무 좋다

그냥 느낌대로 대책없이 (수동 바이브) 리팩토링했는데, 에이전트한테 리팩토링 하기 전 커밋 ID 알려주고 리팩토링이므로 검증해달라고 하면 편집한 부분 설정값 nix eval로 촤라락 비교해주고, nix-diff도 해주고, dry-build해서도 확인해주니까 든든하다

1
6
5
2
2