毎週水曜日更新中!
…
continue reading
Hajime Morrita , Jun Mukai에서 제공하는 콘텐츠입니다. 에피소드, 그래픽, 팟캐스트 설명을 포함한 모든 팟캐스트 콘텐츠는 Hajime Morrita , Jun Mukai 또는 해당 팟캐스트 플랫폼 파트너가 직접 업로드하고 제공합니다. 누군가가 귀하의 허락 없이 귀하의 저작물을 사용하고 있다고 생각되는 경우 여기에 설명된 절차를 따르실 수 있습니다 https://ko.player.fm/legal.
Player FM -팟 캐스트 앱
Player FM 앱으로 오프라인으로 전환하세요!
Player FM 앱으로 오프라인으로 전환하세요!
#111: Formal Algorithms for Transformers
Manage episode 359821334 series 2151064
Hajime Morrita , Jun Mukai에서 제공하는 콘텐츠입니다. 에피소드, 그래픽, 팟캐스트 설명을 포함한 모든 팟캐스트 콘텐츠는 Hajime Morrita , Jun Mukai 또는 해당 팟캐스트 플랫폼 파트너가 직접 업로드하고 제공합니다. 누군가가 귀하의 허락 없이 귀하의 저작물을 사용하고 있다고 생각되는 경우 여기에 설명된 절차를 따르실 수 있습니다 https://ko.player.fm/legal.
勤務先への脅威に怯える森田が Transformer を復習しました。ご意見ご感想などはおたより投書箱や Reddit にお寄せください。iTunes のレビューや星も歓迎です。
今回は録音に際し Adobe Podcast (beta) のバグを引き当ててしまい、向井と森田の音声トラックがずれてしまいました。ごめんなさい。次回からは non-beta の手堅いツールで録音しようと思います・・・。
- [2207.09238] Formal Algorithms for Transformers
- #15 – Neural Machine Translation by Jointly Learning to Align and Translate
- #38 – Subword Regularization: Improving Neural Network Translation Models with Multiple Subword Candidates
- #51 – Attention Is All You Need
- #53 – BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding
- Jay Alammar – YouTube
- GitHub – openai/tiktoken: tiktoken is a fast BPE tokeniser for use with OpenAI’s models.
- GitHub – karpathy/nanoGPT: The simplest, fastest repository for training/finetuning medium-sized GPTs.
- Let’s build GPT: from scratch, in code, spelled out. – YouTube
147 에피소드
Manage episode 359821334 series 2151064
Hajime Morrita , Jun Mukai에서 제공하는 콘텐츠입니다. 에피소드, 그래픽, 팟캐스트 설명을 포함한 모든 팟캐스트 콘텐츠는 Hajime Morrita , Jun Mukai 또는 해당 팟캐스트 플랫폼 파트너가 직접 업로드하고 제공합니다. 누군가가 귀하의 허락 없이 귀하의 저작물을 사용하고 있다고 생각되는 경우 여기에 설명된 절차를 따르실 수 있습니다 https://ko.player.fm/legal.
勤務先への脅威に怯える森田が Transformer を復習しました。ご意見ご感想などはおたより投書箱や Reddit にお寄せください。iTunes のレビューや星も歓迎です。
今回は録音に際し Adobe Podcast (beta) のバグを引き当ててしまい、向井と森田の音声トラックがずれてしまいました。ごめんなさい。次回からは non-beta の手堅いツールで録音しようと思います・・・。
- [2207.09238] Formal Algorithms for Transformers
- #15 – Neural Machine Translation by Jointly Learning to Align and Translate
- #38 – Subword Regularization: Improving Neural Network Translation Models with Multiple Subword Candidates
- #51 – Attention Is All You Need
- #53 – BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding
- Jay Alammar – YouTube
- GitHub – openai/tiktoken: tiktoken is a fast BPE tokeniser for use with OpenAI’s models.
- GitHub – karpathy/nanoGPT: The simplest, fastest repository for training/finetuning medium-sized GPTs.
- Let’s build GPT: from scratch, in code, spelled out. – YouTube
147 에피소드
모든 에피소드
×플레이어 FM에 오신것을 환영합니다!
플레이어 FM은 웹에서 고품질 팟캐스트를 검색하여 지금 바로 즐길 수 있도록 합니다. 최고의 팟캐스트 앱이며 Android, iPhone 및 웹에서도 작동합니다. 장치 간 구독 동기화를 위해 가입하세요.