大型語言模型 (LLM)
LLM
1. 事先受過 大量專業訓練 (PB)
2.有目的性的微調 (ex:問ChatGPT 自己的問題, 他可以客製化產生回答)
https://www.youtube.com/watch?app=desktop&v=ERr6J1bDXUI&ab_channel=%E4%BB%8A%E5%A4%A9%E6%AF%94%E6%98%A8%E5%A4%A9%E5%8E%B2%E5%AE%B3
========
大型語言模型 (LLM) 是一種人工智慧 (AI) 程式,可以辨識和產生文字以及完成其他任務。LLM 接受大量資料的訓練——因此得名「大型」。
LLM 建立在機器學習的基礎上:具體來說,是一種稱為 Transformer 模型的神經網路。
LLM 可以接受訓練來完成許多任務。最知名的用途之一是作為生成式 AI:當給出提示或提出問題時,它們可以產生文字回應。
LLM 範例包括 ChatGPT(來自 OpenAI)、Bard (Google)、Llama (Meta) 和 Bing Chat (Microsoft)。GitHub 的 Copilot 是另一個範例,但用於編碼而不是自然的人類語言。
LLM 有哪些優點:
LLM 的一個關鍵特徵是它們能夠回應不可預測的查詢。傳統的電腦程式以其可接受的語法接收命令,或從使用者的一組特定輸入接收命令。
LLM限制
然而,就它們提供的資訊而言,LLM 的可靠性取決於它們所攝入的資料。如果饋入虛假資訊,它們將在回應使用者查詢時提供虛假資訊。LLM 有時也會「產生幻覺」:當它們無法給出準確答案時,它們會創造虛假資訊。
LLM 還可以透過惡意輸入進行操縱,以提供某些類型的回應(包括危險或不道德的回應)。
LLM 如何運作?
1.機器學習和深度學習
-在基礎層面上,LLM 是建立在機器學習的基礎上的。機器學習是人工智慧的一部分,它是指向程式提供大量資料以訓練程式在無需人工幹預的情況下識別資料特徵的做法。
-LLM 使用一種稱為深度學習的機器學習。深度學習模型基本上可以在無需人工干預的情況下訓練自己識別差異,不過通常需要進行一些人工微調。
2.神經網路
為了實現這種類型的深度學習,LLM 建立在神經網路的基礎上。正如人腦是由相互連接並向彼此傳送訊號的神經元構成的一樣,
人工神經網路(通常簡稱為「神經網路」)也是由相互連接的網路節點構成的。它們由多個「層」組成:輸入層、輸出層以及中間的一層或多層。只有當各層自己的輸出超過特定閾值時,各層才會相互傳遞資訊。
3.Transformer 模型
用於 LLM 的特定神經網路類型稱為 Transformer 模型。Transformer 模型能夠學習上下文,這對於高度依賴上下文的人類語言尤其重要。
Transformer 模型使用一種稱為「自註意力」的數學技術來偵測序列中元素相互關聯的微妙方式。這使得它們比其他類型的機器學習更能理解上下文。例如,這讓它們能夠理解句子的開頭和結尾是如何聯繫起來的,以及段落中的句子如何相互關聯。
https://www.cloudflare.com/zh-tw/learning/ai/what-is-large-language-model/
留言
張貼留言