| Dec | JAN | Feb |
| 17 | ||
| 2020 | 2021 | 2022 |
COLLECTED BY
Collection: Common Crawl
아마존 베스트 셀러인 <Deep Learning Illustrated>의 한글 번역서인 <딥러닝 일러스트레이티드>가 출간되었습니다. 딥러닝 역사에서 GAN과 강화 학습까지 이 분야의 흥미진진한 기술을 가득담고 있습니다. 저자들의 직관적이고 명쾌한 설명으로 딥러닝의 진수를 맛볼 수 있습니다. 특히 파리지엔느인 아그레이가 그린 이 분야 거장들의 멋진 일러스트를 책 미리보기에서 지금 확인해 보세요!
깃허브에 있는 모든 코드는 구글 코랩(Colab)에서 실행할 수 있습니다!삼엽충과 함께 딥러닝의 세계로 떠나보시죠! 🙂
●432페이지 완전 풀컬러
●지금 온라인 서점에서 판매중입니다. [교보문고]: 32,400원, [Yes24] [알라딘]: 36,000원
친절하게도 저자 존 크론이 링크드인에서 직접 번역서를 소개해 주었습니다. 🙂
TensorFlow 카테고리에 분류되었고 deep learning illustrated, 딥러닝, 딥러닝 일러스트레이티드, 강화학습, GAN, 텐서플로, 순환신경망, 합성곱, 케라스 태그가 있으며 에 작성되었습니다.
혹시 머신러닝, 딥러닝을 이제 막 배우려고 마음 먹으셨나요?또는 어려워서 중간에 포기하신 적이 있나요?더이상 이 공부를 미룰 수 없는 “혼공족”을 위해 <혼자 공부하는 머신러닝+딥러닝>이 출간되었습니다!
감사합니다! 🙂
Machine Learning, scikit-learn, TensorFlow 카테고리에 분류되었고 딥러닝, 머신러닝, 사이킷런, 텐서플로, 혼자 공부하는 머신러닝+딥러닝, 케라스 태그가 있으며 에 작성되었습니다.
오렐리앙 제롱Aurélien Géron이 쓴 아마존 베스트 셀러 “Hands-On Machine Learning with Scikit-Learn, Keras, and TensorFlow 2nd Edition“을 번역한 핸즈온 머신러닝2판이 출간되었습니다.
1판도 좋았지만2판은 더욱 더 알차고 폭넓은 주제를 다루고 있습니다. 1판에서 아쉬웠던 비지도 학습과 텐서플로2로 바뀌면서 변경된 내용, 새로운 신경망 구조를 가득 담고 있습니다.
번역서도 원서와 마찬가지로 풀 컬러로 인쇄됩니다. 전체 페이지는 952페이지 입니다. 무엇보다도 딥러닝을 다루는2부의 내용이 크게 늘었기 때문입니다. 케라스 뿐만 아니라 RNN의 최근 발전을 많이 포함하고 있고 GAN을 새롭게 추가했습니다. 또한 강화 학습 챕터도 크게 증가했습니다. 한마디로 백과사전이 따로 없죠! 🙂
이 책은 온라인/오프라인 서점에서 판매 중입니다!Yes24, 교보문고, 알라딘, 한빛미디어
●이 책의 주피터 노트북을 한글로 번역하여 제 깃허브에 올리고 있습니다.
●혼자 공부하시는 분들을 위해 유튜브에 동영상 강좌를 올리고 있습니다!
●이 동영상은 인프런에서도 볼 수 있습니다.
사이킷런, 텐서플로, 핸즈온 머신러닝, 인공지능, 케라스 태그가 있으며 에 작성되었습니다.
“Do it! 딥러닝 입문“이 출간되었습니다!이 책은 번역서가 아니라 제가 직접 쓴 책입니다! 🙂
알고리즘 공식을 유도하고 직접 파이썬으로 구현해 보면서 딥러닝에 숨겨진 실체를 흥미진진하게 파헤칩니다. 또 텐서플로를 사용해 실전 딥러닝 구현 감각을 익히도록 돕습니다. 좋은 출판사의 도움을 받아 훌륭한 일러스트와 알찬 내용으로 꾸몄습니다. 딥러닝을 어떻게 시작할지 막막하다면 이 책을 자신있게 권해드립니다.
온라인/오프라인 서점에서 판매중입니다. [교보문고] [Yes24]
감사합니다!!! 🙂
●코로나 때문에 스터디를 진행하지 못하는 대신 유튜브에 강의를 올렸습니다!재미있게 봐 주세요. 🙂
●이 영상은 구름 에듀에서도 볼 수 있습니다.
테고리에 분류되었고 Do it, 딥러닝 입문 태그가 있으며 에 작성되었습니다.
s 카테고리에 분류되었고 Deep Learning, 두잇딥러닝, 인프런, Machine Learning 태그가 있으며 에 작성되었습니다.
e Learning 카테고리에 분류되었고 딥러닝, 머신러닝, 유튜브 강의, 책 태그가 있으며 -12-14에 작성되었습니다.
테고리에 분류되었고 딥러닝, 머신러닝, 사이킷런, 텐서플로, 핸즈온 머신러닝2 태그가 있으며 -12-04에 작성되었습니다.
konlpy와 soynlp를 사용하여 네이버 영화 리뷰 데이터셋을 다룬 예제가 필요하신가요? “머신 러닝 교과서2판”에 관련된 예제를 실을 예정입니다. 하지만 미리 맛보지 않을 이유는 없겠죠? Enjoy! 🙂
https://github.com/rickiepark/python-machine-learning-book-3rd-edition/blob/master/ch08/naver_movie_review.ipynb
* 참 konlpy 예제는 “(개정판)파이썬 라이브러리를 활용한 머신러닝” 책에도 있습니다!ㅎ
ing, News, scikit-learn 카테고리에 분류되었고 konlpy, Python, scikit-learn, setiment classification, soynlp 태그가 있으며 에 작성되었습니다.
SimpleImputer의 객체를 생성합니다.<주석>옮긴이_ 사이킷런 0.22버전에서 최근접 이웃 방식으로 누락된 값을 대체하는 KNNImputer 클래스가 추가되었습니다.</주석>”
(二)(p109) 첫 번째 문단 끝에 다음처럼 주석을 추가합니다. “… 변환을 적용해보겠습니다.<주석>옮긴이_ 사이킷런 0.22버전에서 열 이름이나 데이터 타입을 기반으로 열을 선택할 수 있는 make_column_selector() 함수가 추가되었습니다.</주석>”
(三)(p118) 54번 주석 끝에 다음 문장을 추가합니다. “사이킷런 0.24버전에서 파라미터 탐색 범위를 좁혀가면서 컴퓨팅 자원을 늘려가는 HalvingGridSearchCV와 HalvingRandomSearchCV가 추가됩니다. 이 예제는 https://bit.ly/halving-grid-search를 참고하세요.”
(四)(p128) 첫 번째 문장 끝에 다음처럼 주석을 추가합니다. “… 구조를 가지고 있습니다.<주석>옮긴이_ 사이킷런 0.22버전에서 fetch_openml() 함수에 as_frame 매개변수가 추가되었습니다. 이 매개변수를 True로 설정하면 판다스 데이터프레임을 반환합니다.</주석>”
(五)(p140) 6번 주석 끝에 다음 문장을 추가합니다. “사이킷런 0.22버전에서 정밀도/재현율 곡선을 그려주는 plot_precision_recall_curve() 함수가 추가되었습니다.”
(六)(p142) 첫 번째 문장 끝에 다음처럼 주석을 추가합니다. “… 그래프를 그립니다.<주석>옮긴이_ 사이킷런 0.22버전에서 ROC 곡선을 그려주는 plot_roc_curve() 함수가 추가되었습니다.</주석>”
(七)(p149) 첫 번째 문장 끝에 다음처럼 주석을 추가합니다. “… 편리할 때가 많습니다.<주석>옮긴이_ 사이킷런 0.22버전에서 오차 행렬을 그래프로 그려주는 plot_confusion_matrix() 함수가 추가되었습니다.</주석>”
(八)(p188) 첫 번째 문단2번째 줄에서 “2차방정식처럼 보이며 거의 선형적입니다“를 “3차방정식처럼 보입니다“로 정정합니다.
(九)(p230) 1번 주석 끝에 다음 문장을 추가합니다. “사이킷런 0.21버전에서 dot 파일을 만들지 않고 바로 트리를 그릴 수 있는 plot_tree() 함수도 추가되었습니다.”
(十)(p236) 5번 주석을 다음과 같이 바꿉니다. “옮긴이_ 사이킷런 0.21버전에서 히스토그램 기반 그레이디언트 부스팅이 추가되었고 presort 매개변수로 얻을 수 있는 성능 향상이 크지 않기 때문에 사이킷런 0.24버전에서 결정 트리와 그레이디언트 부스팅 클래스의 presort 매개변수가 삭제됩니다.”
(11)(p238) 9번 주석에서 “… min_impurity_decrease와 분할 대상이 되기 위해 … min_impurity_split가 추가되었습니다“를 “… min_impurity_decrease가 추가되었습니다. 분할 대상이 되기 위해 … min_impurity_split는 0.25버전에서 삭제됩니다“로 수정합니다. 또10번 주석 끝에서 “… 지원합니다“를 “… 지원했지만 0.22버전에서 비용 복잡도 기반의 사후 가지치기를 위한 ccp_alpha 매개변수가 결정 트리와 트리 기반의 앙상블 모델에 추가되었습니다“로 수정합니다.
(12)(p254) 7.4절 아래 두 번째 문장 끝에 다음처럼 주석을 추가합니다. “… 크기로 지정합니다.<주석>옮긴이_ 사이킷런 0.22버전에서 랜덤 포레스트 클래스에 부트스트랩 샘플 크기를 지정할 수 있는 max_samples 매개변수가 추가되었습니다. 샘플 크기를 정수로 입력하거나 비율을 실수로 지정할 수 있습니다. 기본값은 훈련 세트 전체 크기입니다.<주석>”
(13)(p262) 7.5.2절에서 두 번째 문단, 첫 번째 줄에서 “그레이디언트 부스팅은 회귀 문제에도 아주 잘 작동합니다”를 “그레이디언트 부스팅은 분류 문제에도 아주 잘 작동합니다”로 정정합니다.
(14)(p266) 첫 번째 문단 끝에 다음처럼 주석을 추가합니다. “… 훈련을 멈춥니다.<주석>옮긴이_ 사이킷런 0.20버전에서 그래디언트 부스팅에 조기 종료 기능이 추가되었습니다. 훈련 데이터에서 validation_fraction 비율(기본값 0.1)만큼 떼어 내어 측정한 손실이 n_iter_no_change 반복 동안에 tol 값(기본값 1e-4) 이상 향상되지 않으면 훈련이 멈춥니다.</주석>”
(15)(p267) 두 번째 문단 끝에 다음처럼 주석을 추가합니다. “… 매우 비슷합니다.<주석>옮긴이_ 이외에도 히스토그램 기반 그레이디언트 부스팅을 구현한 LightGBM(https://lightgbm.readthedocs.io)이 있습니다. 사이킷런 0.21버전에서 히스토그램 기반 그레이디언트 부스팅을 구현한 HistGradientBoostingClassifier와 HistGradientBoostingRegressor가 추가되었습니다.</주석>”
(16)(p271) 첫 번째 문장 끝에서 다음처럼 주석을 추가합니다. “… 지원하지 않습니다.<주석>옮긴이_ 사이킷런 0.22버전에서 StackingClassifier와 StackingRegressor가 추가되었습니다.</주석>”
(17)(p319) 9.1.5절 아래 첫 번째 문단 끝에 다음처럼 주석을 추가합니다. “… 훈련해보겠습니다.<주석>옮긴이_ 사이킷런 0.24버전에서 준지도 학습을 위한 SelfTrainingClassifier가 추가됩니다.</주석>”
(18)(p358) 첫 번째 문단 끝에서 “… 다중 출력 분류기multioutput classifier입니다.”를 “… 다중 레이블 분류기multilabel classifier입니다.”로 정정합니다.
(19)(p380) 아래에서 두 번째 문단 끝에서 “(89% 검증 정확도에 가까이 도달할 것입니다)”를 “(89.4% 검증 정확도에 가까이 도달할 것입니다)”로 수정합니다.
(20)(p405) 페이지 끝에 다음처럼 주석을 추가합니다. “… 배치 크기를 사용해보세요.<주석>옮긴이_ 텐서플로 2.4버전에서 케라스 모델의 compile() 메서드에 있는 steps_per_execution 매개변수를1이상으로 설정하면 계산 그래프를 한 번 실행할 때 여러 배치를 처리할 수 있기 때문에 GPU를 최대로 활용하고 배치 크기를 바꾸지 않고 훈련 속도를 높일 수 있습니다.</주석>”
(21)(p408) 6번 문제 두 번째와 세 번째 항목에서 “가중치 벡터“를 “가중치 행렬“로 정정합니다.
(22)(p465) 12.2절 아래 첫 번째 문단 끝에 다음처럼 주석을 추가합니다. “… 방법을 알아봅니다.<주석>옮긴이_ 텐서플로 2.4버전에서 넘파이 호환 API인 tf.experimental.numpy가 추가되었습니다.</주석>”
(23)(p475) 첫 번째 코드 블럭에서 my_softplus 함수 옆의 주석을 “# tf.nn.softplus(z)와 반환값이 같습니다.“에서 “# tf.nn.softplus(z)가 큰 입력을 더 잘 다룹니다.“로 수정합니다.
(24)(p492) 22번 주석 끝에 다음 문장을 추가합니다. “이 예는 번역서 깃허브에 있는 custom_model_in_keras.ipynb 주피터 노트북을 참고하세요.”
(25)(p531) 13.3.3절 아래 첫 번째 문장 끝에 다음처럼 주석을 추가합니다. “… 노력하고 있습니다.<주석>옮긴이_ tf.keras.layers.experimental.preprocessing 아래 이미지 처리, 이미지 증식, 범주형 데이터에 관련된 전처리 층이 추가되었습니다.</주석>”
(26)(p633) 첫 번째 문단 마지막 부분에 “타깃(마지막 글자)를 분리하겠습니다”를 “타깃(마지막 100개의글자)를 분리하겠습니다”로 정정합니다.
(27)(p662) [식 16-2] 위 두 번째 줄에서 “아래쪽에 (전치되어) 표현되어 있습니다”를 “위쪽에 (전치되어) 표현되어 있습니다”로 정정합니다.
(28)(p663) 위에서 네 번째 줄에서 “왼쪽 아래 수직 점선으로”를 “왼쪽 위 수직 점선으로”로 정정합니다.
(29)(p711) [그림 17-19] 위의 “예를 들어 생성자의 출력을 ~ 풀링 층이 뒤따릅니다).” 문단을 다음 문단으로 교체합니다.
“예를 들어 생성자의 출력을 4 × 4에서 8 × 8로 크게하려면(그림 17-19) 기존 합성곱 층(“합성곱 층 1”)에 (최근접 이웃 필터링을 사용한27) 업샘플링 층을 추가하여 8 × 8 크기 특성 맵을 출력합니다. 이 특성 맵이 새로운 합성곱 층(“합성곱 층 2”)으로 주입되고 다시 새로운 출력 합성곱 층으로 주입됩니다. “합성곱 층 1”의 훈련된 가중치를 잃지 않기 위해 ([그림 17-19]에 점선으로 표시된) 두 개의 새로운 합성곱 층을 점진적으로 페이드-인fade-in하고 원래 출력층을 페이드-아웃fade-out합니다. 이렇게 하기위해 새로운 출력(가중치 α)과 원래 출력(가중치 1 – α)의 가중치 합으로 최종 출력을 만듭니다. 비슷한 페이드-인fade-in/페이드-아웃fade-out 기법이 판별자에 새로운 합성곱 층을 추가할 때 사용됩니다(다운샘플링을 위해 평균 풀링 층이 뒤따릅니다). 모든 합성곱 층은 “same” 스트라이드1을 사용하므로 입력의 높이와 너비를 보존합니다. 원래 합성곱 층도 마찬가지입니다. 따라서 (입력이 8 × 8이기 때문에) 8 × 8 출력을 만듭니다. 마지막으로 출력층의 커널 크기는1입니다. 이를 사용해 입력을 필요한 컬러 채널 수 (일반적으로3)로 투영합니다.”
(30)(p756) 위에서3번째 줄에 “오차는 전이 (s, r, s’)가 매우 놀랍다는”를 오차는 전이 (s, a, s’)가 매우 놀랍다는”로 정정합니다.
(31)(p811) 주석16번 끝에 다음 문장을 추가합니다. “텐서플로 2.4에서 GPU 메모리 사용량을 반환하는 tf.config.experimental.get_memory_usage() 함수가 추가되었습니다.”
(32)(p834) 첫 번째 문단 끝에 다음처럼 주석을 추가합니다. “… 훈련 코드를 실행합니다.<주석>옮긴이_MultiWorkerMirroredStrategy는 텐서플로 2.4에서 experimental을 벗어나 안정 API가 됩니다.</주석>” 또한 마지막 문단, 마지막 문장 끝에 다음처럼 주석을 추가합니다. “… 생성자에 전달하세요.<주석>옮긴이_ 텐서플로 2.4에서 CollectiveCommunication 클래스의 이름이 CommunicationImplementation로 바뀝니다.</주석>
(33)(p835) 두 번째 문단 끝에 다음처럼 주석을 추가합니다. “… 전략과 동일합니다).<주석>옮긴이_TPUStrategy는 텐서플로 2.3에서 experimental을 벗어나 안정 API가 되었습니다.</주석>
(34)(p849) 7번 문제 답의 마지막 항목에서 “SequentialFeatureSelector 클래스에서 전진, 후진 모드를 모두 제공합니다. 또한SH방식의 그리드 서치를 위해 HalvingGridsearchCV 클래스와 HalvingRandomSearchCV 클래스가 추가 되었습니다.
0.24 버전이 나오기까지 이 두 클래스를 기다리기 어렵다면 미리 잠깐 맛보기는 것은 어떨까요?머신 러닝 교과서2판을 위해 만든 순차 특성 선택과 HalvingGridSearchCV 노트북을 참고하세요! 🙂
arn 카테고리에 분류되었고 HalvingGridSearchCV, HalvingRandomSearchCV, scikit-learn, SequentialFeatureSelector 태그가 있으며 에 작성되었습니다.
020-10-23에 작성됐습니다.
텐서 ≈ 스터디 페이스북 그룹
사이킷런 코리아 페이스북 그룹
- 어떤 책을 봐야 하나요?
- 도서 에러타 메일링 리스트
딥러닝 일러스트레이티드
혼자 공부하는 머신러닝+딥러닝
GAN 인 액션
★★★★★ GAN 을 철저하게 파헤쳐 주는 책! (책**아 님)
★★★★★ GAN의 발전사를 알맹이만 쏙쏙 빼먹을 수 있어 유익했다. (아***인 님)
★★★★★ GAN 입문을 위한 좋은 책 (spaci*** 님)
★★★★★ 누구나 가볍게 읽을 수 있는 GAN 고급 사용 설명서 (nulLe*** 님)
핸즈온 머신러닝2판
★★★★★ 머신러닝의 바이블! (s******u 님)
★★★★★ 머신러닝을 하는 개발자의 책장에서는 반드시 이 책을 찾을 수 있을 것입니다. (p******k 님)
♥♥♥♥ 매우 훌룡합니다 기본기까지 다져주는 책이라 생각합니다. (ho**76 님)
♥♥♥♥ 인기가 많다고 해서 구매했는데 왜 인기있는지 알거같아요. 이해하기 쉽습니다. (al**e0609 님)
미술관에 GAN 딥러닝
★★★★★AI관련 번역책을10권 정도 샀었는데 그중 단연코 최고 였습니다.(eksis 님)
★★★★★ GAN에 대해 이만큼 친절하게 설명해준 책이 또 있었나 싶을 정도이다(aetty 님)
♥♥♥♥ GAN을 어렵지 않게 재미있게 설명해주는 책입니다.(ky**oo 님)
Do it! 딥러닝 입문
★★★★★ 딥러닝을 배우고자 하는분께 강추합니다!(wtiger85 님)
★★★★★ 강추. 박해선님의 책은 일단 지른 다음에 생각합니다.(heistheguy 님)
♥♥♥♥ 코랩을 사용한 딥러닝을 알려주는 책 매우 유용합니다.(su**rss007 님)
파이썬을 활용한 머신러닝 쿡북
★★★★★ 좋은 내용, 멋진번역이네요(s9055038 님)
★★★★★ 머신러닝 전문가의 참고도서!(kjooh0220 님)
♥♥♥♥ 데이터사이언스 전처리 실무를 다루는 끝판왕!(na**mjjang 님)
머신 러닝 교과서
♥♥♥♥ 아마존 베스트셀러 라는 명성이 왜 생겼는지 알 수 있는 좋은 책임(mo**buggy 님)
★★★★★ 진정한 머신러닝 교과서!그리고 파이썬-(coolcat 님)
★★★★★ 마치 한국어판이 원서인 것처럼 군더더기 없이 완벽한 번역서(yeonwo*** 님)
[개정판] 파이썬 라이브러리를 활용한 머신러닝
★★★★★ 검증된 내용, 훌륭한 번역자, 그리고 좋은 편집(hawkm*** 님)
★★★★ 개정판은 인기없는 책은 나올 이유가 없다(ghcjs*** 님)
♥♥♥♥ 올 컬러로 깔끔한 해설(bi**cle2 님)
케라스 창시자에게 배우는 딥러닝
홍정모 교수님의 도서 리뷰 영상
★★★★★ 번역자는 이 책의 가장 큰 장점입니다.(mo**05 님)
★★★★★ 박해선님 이 분야 기술 번역은 최고 ^^ ..(sa**ke 님)
♥♥♥♥ 인공지능에 대해 알고 싶은 분이라면 추천드려요~(lj**999 님)
★★★★★ 이론과 코드를 함께 제공하는 아주 좋은 케라스 입문서(정*준 님)
핸즈온 머신러닝
★★★★★ 제가 본 한국어로 된ML책중에서 최고의 기량을 갖추었습니다.(bk**ys 님)
♥♥♥♥ 좋은 책입니다. 꼭 읽어봅시다.(we**lifema 님)
★★★★ 현존하는 머신러닝 책중 최고.(wnghdcjfe 님)
★★★★★ 머신러닝/딥러닝계의 바이블이라고 생각합니다!(Kebee 님)
★★★★★ 책장에 꽂아두고 마르고 닳도록 꺼내 보는 그러한 책인 것이다.(dragmove 님)
파이썬 라이브러리를 활용한 머신러닝
★★★★★ 정말 많은 머신러닝책을 봤다. 이 책이 당연 최고다.(red***** 님)
★★★★☆
머신러닝을 실제로 활용하고 싶다면 반드시 읽어야할 책!(pa**3424 님)
♥♥♥♡ 머신러닝과 인공지능에 대한 입문서로, 파이썬과 사이킷런을 중심으로 머신러닝 애플리케이션을 만드는 모든 단계를 배우는데 유용 합니다.(sa**huh 님)
★★★★★ 저에겐 은인 같은 책입니다.(tac*** 님)
텐서플로 첫걸음
다른 562명의 팔로워와 함께하세요.
– 넘파이 튜토리얼 – Model evaluation, model selection – 네스테로프 == 모멘텀of모멘텀 – 해커에게 전해들은 머신러닝 – 해커가 알려주는 뉴럴 네트워크 – 딥러닝을 위한 콘볼루션 계산 가이드 – First Contact with TensorFlow 번역
– [Preview]Fundamental of Deep Learning
| 박해선 (“딥러닝 일러스트레이티드”가 출간…) | |
| woworiya (“딥러닝 일러스트레이티드”가 출간…) | |
| woworiya (“딥러닝 일러스트레이티드”가 출간…) | |
| 박해선 (어떤 책을 봐야 하나요?) | |
| SeungJae Lee (어떤 책을 봐야 하나요?) | |
| 박해선 (어떤 책을 봐야 하나요?) | |
| SeungJae Lee (어떤 책을 봐야 하나요?) | |
| 박해선 (“딥러닝 일러스트레이티드”가 출간…) | |
| woworiya (“딥러닝 일러스트레이티드”가 출간…) | |
| Yu Hjyu (TensorFlow 2.3.0 Release) | |
| 박해선 (“혼자 공부하는 머신러닝+딥러닝”…) | |
| woworiya (“혼자 공부하는 머신러닝+딥러닝”…) | |
| 박해선 (“혼자 공부하는 머신러닝+딥러닝”…) | |
| 조힘찬빛 (“혼자 공부하는 머신러닝+딥러닝”…) | |
| 박해선 (New SAGA solver) |
Press.com