跟 NVIDIA 學深度學習!從基本神經網路到 CNN.RNN.LSTM.seq2seq.Transformer.GPT.BERT...,紮穩機器視覺與大型語言模型 (LLM) 的建模基礎

  • 分類:
    中文書電腦資訊APP開發/程式設計Python
    追蹤
    ? 追蹤分類後,您會在第一時間收到分類新品通知。
  • 作者: Magnus Ekman 追蹤 ? 追蹤作者後,您會在第一時間收到作者新書通知。
  • 譯者:哈雷
  • 出版社: 旗標 追蹤 ? 追蹤出版社後,您會在第一時間收到出版社新書通知。
  • 出版日:2024/01/23

配送方式

  • 台灣
    • 國內宅配:本島、離島
    • 到店取貨:
      金石堂門市 不限金額免運費
      7-11便利商店 ok便利商店 萊爾富便利商店 全家便利商店
  • 海外
    • 國際快遞:全球
    • 港澳店取:
      ok便利商店 順豐 7-11便利商店

內容簡介

AI 界扛霸子 NVIDIA 的深度學習 (Deep Learning) 指定教材!

GPTTransformerseq2seqself-attention 機制...大型語言模型 (LLM) 背後的先進技術「硬派」揭密!

近年來,在 NVIDIA (輝達) GPU、CUDA 技術的推波助瀾下,深度學習 (Deep Learning) 領域有著爆炸性的成長,例如最為人知的 ChatGPT 正是運用深度學習技術開發出來的當紅應用。

學深度學習,跟 AI 重要推手 - NVIDIA 學最到位!】

除了硬體上的助益外,為了幫助眾多初學者快速上手深度學習,任職於 NVIDIA 的本書作者 Magnus Ekman 凝聚了他多年來在 NVIDIA 所積累的 AI 知識撰寫了本書。除了介紹深度學習基礎知識外,也包括此領域的最新重要進展。本書同時也是 NVIDIA 的教育和培訓部門 -【深度學習機構 (Deep Learning Institute, DLI)】 指定的培訓教材 (https://www.nvidia.com/zh-tw/training/books/)。

要學深度學習,跟深度學習的重要推手 NVIDIA 學就對了!眾多紮實的內容保證讓你受益滿滿!

機器視覺、生成式 AI 語言模型 100% 從零開始打造!】

在深度學習的教學上,本書將從神經網路的底層知識 (梯度下降、反向傳播...) 介紹起,帶你打好深度學習的底子。接著會介紹用 Colab 雲端開發環境 + tf.Keras 建構、調校多層神經網路,以及經典的 CNN (卷積神經網路) 圖形辨識模型建構...等機器視覺主題。最後則邁入自然語言處理 (NLP) 領域,在介紹完基本的 RNN / LSTM 知識後,以先進的 Transformer、GPT...語言模型架構做結。

尤其自從 ChatGPT 爆紅之後,自然語言處理 (NLP) 一直是深度學習的熱門研究話題,而這部分正是本書最精彩之處!

RNN / LSTM 神經網路雖然問世已有一段時間,現今一些先進的 NLP 模型或許不會用它們來建構,但由它們衍生出來的 hidden state (隱藏狀態) 概念可說是重中之重,我們會帶你好好熟悉,以便能跟後續章節順利銜接上。

之後則會利用各種神經網路技術帶你實作【多國語言翻譯模型】、【Auto-Complete 文字自動完成模型】...等範例。從處理原始文字訓練資料 → 切割資料集 → 建構模型 → 模型調校、優化,從頭到尾示範一遍,帶你紮穩大型語言模型 (LLM) 的建模基礎。

令小編最印象深刻的是,本書所設計的 NLP 章節內容可說是「環環相扣」,從 RNN / LSTM 章節初次觸及 NLP 模型開始,次一章的模型架構幾乎都是為了解決前一章模型的特定問題而生的。這種層層舖墊的獨到方式能讓你深刻理解 RNN / LSTM / seq2seq / encoder-decoder / attention / self-attention 機制...等技術的發展脈絡,對於看懂 Transformer、GPT 等最先進的神經網路技術有莫大的幫助,這絕對是其他書看不到的精彩內容!

本書特色

【徹底看懂 ChatGPT 背後核心技術 - GPT 的模型架構】
GPT、Transformer、encoder-decoder、seq2seq、self-attention 機制、attention 機制、query-key-value 機制、Multi-head、位置編碼 (positional encoding)、預訓練 (pre-train)、微調 (fine-tune)...各種建模技術輕鬆搞懂!

【生成式 AI 語言模型 100% 從零開始打造!】
‧用 Colab + tf.Keras 實作多國語言翻譯模型、Auto-Complete 文字自動完成模型
‧從處理原始文字訓練資料 → 切割資料集 → 建構模型 → 模型調校、優化,從頭到尾示範一遍,帶你紮穩大型語言模型 (LLM) 的建模基礎

【深度學習基礎知識學好學滿】
‧紮穩根基!不被損失函數 / 梯度下降 / 反向傳播 / 正規化 / 常規化…一拖拉庫技術名詞搞的暈頭轉向!
‧深度神經網路基礎 / CNN / RNN / LSTM...概念詳解。
‧多模態學習 (multimodal learning)、多任務學習 (multitask learning)、自動化模型架構搜尋...熱門主題介紹。

詳細解說, 流暢翻譯
本書由【施威銘研究室】監修, 書中針對原書進行大量補充, 並適當添加註解, 幫助讀者更加理解內容!

 

作者

Magnus Ekman

現為 NVIDIA 架構總監,擁有資訊工程博士學位與多項專利。他於 1990 年代後期首次接觸人工神經網路、親身體會進化計算的威力後,開始鑽研計算機架構,並與妻兒遷往矽谷居住。他曾在昇陽電腦和 Samsung Research America 從事處理器設計和研發。他目前在 NVIDIA 領導一個工程團隊,負責開發自駕車、人工智慧 (AI) 資料中心專用的高效能、低功率 CPU。

目錄

Ch01 從感知器看神經網路的底層知識
1-1  最早的人工神經元 - Rosenblatt 感知器
1-2  增加感知器模型的能力
1-3  用線性代數實現神經網路模型

Ch02 梯度下降法與反向傳播
2-1  導數的基礎概念
2-2  以梯度下降法 (gradient descent) 對模型訓練問題求解
2-3  反向傳播 (back propagation)

Ch03 多層神經網路的建立與調校
3-1  動手實作:建立辨識手寫數字的多層神經網路
3-2  改善神經網路的訓練成效
3-3  實驗:調整神經網路與學習參數

Ch04 用卷積神經網路 (CNN) 進行圖片辨識
4-1  卷積神經網路 (CNN)
4-2  實作:以卷積神經網路做圖片分類
4-3  更深層的 CNN 與預訓練模型

Ch05 用循環神經網路 (RNN、LSTM...) 處理序列資料
5-1  RNN 的基本概念
5-2  RNN 範例:預測書店銷售額
5-3  LSTM (長短期記憶神經網路)
5-4  LSTM 範例:文字的 Auto-Complete 機制

Ch06 自然語言處理的重要前置工作:建立詞向量空間
6-1  詞向量空間的基本知識
6-2  做法(一):在神經網路建模過程中「順便」生成詞向量空間
6-3  做法(二):以 word2vec、GloVe 專用演算法生成詞向量空間

Ch07 用機器翻譯模型熟悉 seq2seq 架構
7-1  機器翻譯模型的基本知識
7-2  機器翻譯的範例實作
7-2-1  tf.Keras 函數式 API 簡介
7-2-2  建構模型前的工作
7-2-3  建構模型
7-2-4  訓練及測試模型
7-2-5  實驗結果

Ch08 認識 attention 與 self-attention 機制
8-1  熟悉 attention 機制
8-2  認識 self-attention 機制
8-2-1 self-attention 的基本概念
8-2-2 self-attention 機制的算法
8-2-3 multi-head (多頭) 的 self-attention 機制

Ch09 Transformer、GPT 及其他衍生模型架構
9-1  Transformer 架構
9-1-1 編碼器端的架構
9-1-2 解碼器端的架構
9-1-3 Transformer 內的其他設計
9-1-4 小編補充:觀摩 keras 官網上的 Transformer 範例
9-2 Transformer 架構的衍生模型:GPT、BERT
9-2-1  認識 GPT 模型
9-2-2  認識 BERT 模型
9-2-3 其他從 Transformer 衍生出的模型

附錄 A 延伸學習 (一):多模態、多任務...等模型建構相關主題
附錄 B 延伸學習 (二):自動化模型架構搜尋
附錄 C 延伸學習 (三):後續學習方向建議
附錄 D 使用 Google 的 Colab 雲端開發環境

詳細資料

詳細資料

    • 語言
    • 中文繁體
    • 裝訂
    • 紙本平裝
    • ISBN
    • 9789863127765
    • 分級
    • 普通級
    • 頁數
    • 416
    • 商品規格
    • 23*17
    • 出版地
    • 台灣
    • 適讀年齡
    • 全齡適讀
    • 注音
    • 級別

商品評價

訂購/退換貨須知

加入金石堂 LINE 官方帳號『完成綁定』,隨時掌握出貨動態:

加入金石堂LINE官方帳號『完成綁定』,隨時掌握出貨動態
金石堂LINE官方帳號綁定教學

提醒您!!
金石堂及銀行均不會請您操作ATM! 如接獲電話要求您前往ATM提款機,請不要聽從指示,以免受騙上當!

退換貨須知:

**提醒您,鑑賞期不等於試用期,退回商品須為全新狀態**

  • 依據「消費者保護法」第19條及行政院消費者保護處公告之「通訊交易解除權合理例外情事適用準則」,以下商品購買後,除商品本身有瑕疵外,將不提供7天的猶豫期:
    1. 易於腐敗、保存期限較短或解約時即將逾期。(如:生鮮食品)
    2. 依消費者要求所為之客製化給付。(客製化商品)
    3. 報紙、期刊或雜誌。(含MOOK、外文雜誌)
    4. 經消費者拆封之影音商品或電腦軟體。
    5. 非以有形媒介提供之數位內容或一經提供即為完成之線上服務,經消費者事先同意始提供。(如:電子書、電子雜誌、下載版軟體、虛擬商品…等)
    6. 已拆封之個人衛生用品。(如:內衣褲、刮鬍刀、除毛刀…等)
  • 若非上列種類商品,均享有到貨7天的猶豫期(含例假日)。
  • 辦理退換貨時,商品(組合商品恕無法接受單獨退貨)必須是您收到商品時的原始狀態(包含商品本體、配件、贈品、保證書、所有附隨資料文件及原廠內外包裝…等),請勿直接使用原廠包裝寄送,或於原廠包裝上黏貼紙張或書寫文字。
  • 退回商品若無法回復原狀,將請您負擔回復原狀所需費用,嚴重時將影響您的退貨權益。
預計 2024/06/04 出貨 參考庫存量:1 
金石堂門市 全家便利商店 ok便利商店 萊爾富便利商店 7-11便利商店
World wide