상세정보
미리보기
밑바닥부터 시작하는 딥러닝 2
- 저자
- 사이토 고키 저/개앞맵시(이복연) 역
- 출판사
- 한빛미디어
- 출판일
- 2019-05-31
- 등록일
- 2022-06-21
- 파일포맷
- PDF
- 파일크기
- 11MB
- 공급사
- 예스이십사
- 지원기기
-
PC
웹뷰어
프로그램 수동설치
뷰어프로그램 설치 안내
책소개
직접 구현하면서 배우는 본격 딥러닝 입문서 이번에는 순환 신경망과 자연어 처리다! 이 책은 『밑바닥부터 시작하는 딥러닝』에서 다루지 못했던 순환 신경망(RNN)을 자연어 처리와 시계열 데이터 처리에 사용하는 딥러닝 기술에 초점을 맞춰 살펴본다. 8장 구성으로 전체를 하나의 이야기처럼 순서대로 읽도록 꾸몄다. 전편에서 배운 내용을 요약한 신경망 복습을 첫 장에 배치하여 신경망과 파이썬 지식을 어느 정도 갖춘 분이라면 전편을 읽지 않아도 무리 없이 따라올 수 있도록 배려했다.
저자소개
1984년 나가사키 현 쓰시마 태생. 도쿄공업대학교 공학부를 졸업하고 도쿄대학대학원 학제정보학부 석사 과정을 수료했다. 현재는 기업에서 컴퓨터 비전과 기계학습 관련 연구·개발에 매진하고 있다. 오라일리재팬에서 『밑바닥부터 시작하는 딥러닝』을 집필했으며, 『실천 파이썬 3』, 『컴퓨터 시스템의 이론과 구현』, 『실천 기계학습 시스템』 등을 번역했다.
목차
CHAPTER 1 신경망 복습__1.1 수학과 파이썬 복습__1.2 신경망의 추론__1.3 신경망의 학습__1.4 신경망으로 문제를 풀다__1.5 계산 고속화__1.6 정리CHAPTER 2 자연어와 단어의 분산 표현__2.1 자연어 처리란__2.2 시소러스__2.3 통계 기반 기법__2.4 통계 기반 기법 개선하기__2.5 정리CHAPTER 3 word2vec__3.1 추론 기반 기법과 신경망__3.2 단순한 word2vec__3.3 학습 데이터 준비__3.4 CBOW 모델 구현__3.5 word2vec 보충__3.6 정리CHAPTER 4 word2vec 속도 개선__4.1 word2vec 개선 ①__4.2 word2vec 개선 ②__4.3 개선판 word2vec 학습__4.4 word2vec 남은 주제__4.5 정리CHAPTER 5 순환 신경망(RNN)__5.1 확률과 언어 모델__5.2 RNN이란__5.3 RNN 구현__5.4 시계열 데이터 처리 계층 구현__5.5 RNNLM 학습과 평가__5.6 정리CHAPTER 6 게이트가 추가된 RNN__6.1 RNN의 문제점__6.2 기울기 소실과 LSTM__6.3 LSTM 구현__6.4 LSTM을 사용한 언어 모델__6.5 RNNLM 추가 개선__6.6 정리CHAPTER 7 RNN을 사용한 문장 생성__7.1 언어 모델을 사용한 문장 생성__7.2 seq2seq__7.3 seq2seq 구현__7.4 seq2seq 개선__7.5 seq2seq를 이용하는 애플리케이션__7.6 정리CHAPTER 8 어텐션__8.1 어텐션의 구조__8.2 어텐션을 갖춘 seq2seq 구현__8.3 어텐션 평가__8.4 어텐션에 관한 남은 이야기__8.5 어텐션 응용__8.6 정리APPENDIX A 시그모이드 함수와 tanh 함수의 미분__A.1 시그모이드 함수__A.2 tanh 함수__A.3 정리APPENDIX B WordNet 맛보기__B.1 NLTK 설치__B.2 WordNet에서 동의어 얻기__B.3 WordNet과 단어 네트워크__B.4 WordNet을 사용한 의미 유사도APPENDIX C GRU__C.1 GRU의 인터페이스__C.2 GRU의 계산 그래프