두 책은 이론과 예제를 통해 머신러닝과 대규모 언어 모델의 진면목을 확실하게 파헤칩니다. 200여 페이지 정도의 얇은 책이지만 기초 수학 이론에서부터 단계적으로 밟아 정상에까지 도달해가는 이 책의 스타일은 놀라우리만큼 정직하고 핵심을 잘 뽑아 담았습니다. 머신러닝과 대규모 언어 모델의 정석을 맛보고 싶은 모든 분들께 추천합니다! 지금 온라인 서점에서 예약 판매 중입니다.
아마존의 신경망 분야 베스트 셀러인 <Build a Large Language Model (from Scratch)>의 번역서 <밑바닥부터 만들면서 배우는 LLM>이 출간되었습니다!
오픈AI의 GPT 모델을 파이토치 코드로 진짜 밑바닥부터 만들어 보면 LLM이 무엇인지, 현재 AI 기술이 어떤 발전을 이루었는지 알 수 있습니다!
출간을 기념하여 인프런 챌린지를 만들어 10월 초부터 역자와 함께 책을 완독하는 8주 프로그램을 계획하고 있습니다. 완주하신 분에게는 풍성한 상품도 준비하고 있으니 기대해 주세요! (인프런 챌린지에 대한 자세한 내용은 다음 주 초에 블로그를 통해 다시 알려 드리겠습니다)
<핸즈온 LLM>의 예제는 마이크로소프트 Phi-3 모델을 많이 사용합니다. 안타깝게도 Phi-3에서 사용하는 일부 메서드가 transformers 4.49 버전에서 deprecated 되었습니다. 따라서 이 책의 예제를 실행하려면 transformers 4.48.3 버전을 사용해야 합니다. 깃허브 저장소에 있는 노트북의 경우 코랩, transformers 4.48.3 버전에서 문제가 없는지 확인하여 업데이트하겠습니다. 감사합니다!
<혼자 공부하는 머신러닝+딥러닝>과 같은 입문서를 본 다음에 어떤 책을 보면 좋겠냐는 질문을 많이 받습니다. 입문서 다음에 볼만한 중급 도서를 찾기 쉽지 않기 때문이겠죠. 그런 니즈를 조금 해소해 줄 수 있는 <머신 러닝 Q & AI>가 출간되었습니다! 이 책은 <머신 러닝 교과서> 시리즈를 쓴 세바스찬 라시카가 많은 사람들이 머신러닝과 딥러닝 분야를 공부하면서 궁금해 하는 30개 질문에 대한 답변을 담은 것입니다.
파이썬 코드나 복잡한 수식이 담겨 있지 않기 때문에 누구나 쉽게 읽을 수 있고, 이 분야에서 커리어를 쌓기 위해 알아야 할 중요한 개념을 알차게 담고 있어 많은 분들에게 큰 도움이 되리라 생각합니다. 지금 온라인 서점에서 예약 판매중입니다! 감사합니다! 🙂
이 책은 유명 블로거이자 코히어(Cohere)의 이사인 제이 알라마르(Jay Alammar)가 써서 더 관심이 높은 것 같습니다.
이 책은 크게 3부로 나뉘어져 있습니다. 1부는 언어 모델을 이해하는데 초점을 맞추며, 언어 모델 소개, 토큰과 임베딩, 대규모 언어 모델 구조를 다룹니다.
2부에서는 사전 훈련된 언어 모델을 사용하는 다양한 방법을 배웁니다. 먼저 텍스트 분류, 군집, 토픽 모델링을 다룹니다. 그다음 프롬프트 엔지니어링을 소개하고, 고급 텍스트 생성 기법과 도구를 알아 봅니다. 이어서 시맨틱 검색과 RAG 예제를 구현해 보고, 멀티 모달 언어 모델의 구조까지 파헤칩니다.
3부에서는 이런 언어 모델의 훈련 방법과 미세 튜닝 기법을 소개합니다. 3부는 세 개의 장으로 구성됩니다. 텍스트 임베딩 모델 훈련, 분류를 위한 표현 모델 미세 튜닝, 생성 모델 미세 튜닝입니다. 여기까지 배우게 되면 언어 모델에 대해 거의 전반을 다 훑어 보았다고 해도 과언이 아니죠. 특히 이 책은 어려운 수학을 동원하지 않고도 멋진 일러스트와 이해하기 쉬운 예제로 단계적으로 개념을 학습할 수 있어서 좋았습니다. 그럼 곧 나올 번역서 많이 기대해 주세요! 🙂