亚洲激情专区-91九色丨porny丨老师-久久久久久久女国产乱让韩-国产精品午夜小视频观看

溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務條款》

基于ChatGPT使用AI實現自然對話的原理是什么

發布時間:2023-05-04 09:10:21 來源:億速云 閱讀:174 作者:iii 欄目:開發技術

今天小編給大家分享一下基于ChatGPT使用AI實現自然對話的原理是什么的相關知識點,內容詳細,邏輯清晰,相信大部分人都還太了解這方面的知識,所以分享這篇文章給大家參考一下,希望大家閱讀完這篇文章后有所收獲,下面我們一起來了解一下吧。

    1.概述

    ChatGPT是當前自然語言處理領域的重要進展之一,通過預訓練和微調的方式,ChatGPT可以生成高質量的文本,可應用于多種場景,如智能客服、聊天機器人、語音助手等。

    2.內容

    在當今快速發展的人工智能領域,自然語言處理(Natural Language Processing, NLP)技術是研究的重要方向之一。NLP技術的目標是幫助計算機更好地理解和處理人類語言,從而實現人機交互、自然語言搜索、文本摘要、語音識別等應用場景。

    ChatGPT是當前自然語言處理領域的重要進展之一,可以生成高質量的文本,可應用于多種場景,如智能客服、聊天機器人、語音助手等。本文將詳細介紹ChatGPT的原理、實戰演練和流程圖,幫助讀者更好地理解ChatGPT技術的應用和優勢。

    2.1 原理分析

    ChatGPT是由OpenAI推出的一種基于Transformer的預訓練語言模型。在自然語言處理中,預訓練語言模型通常是指使用無標簽文本數據訓練的模型,目的是為了提高下游任務(如文本分類、命名實體識別、情感分析)的性能。ChatGPT是預訓練語言模型的一種,它采用了單向的Transformer模型,通過大規模的文本數據預訓練模型,再在具體任務上進行微調,從而實現高質量的文本生成和自然對話。

    下面我們來詳細介紹一下ChatGPT的原理。

    2.1.1Transformer模型

    ChatGPT模型采用了單向的Transformer模型,Transformer模型是一種基于注意力機制的編碼-解碼框架,由Google在2017年提出。它是目前自然語言處理中應用最廣泛的模型之一,已經被證明在多種任務上取得了比較好的性能。

    Transformer模型的核心是多頭注意力機制,它允許模型在不同位置上對輸入的信息進行不同的關注,從而提高模型的表達能力。同時,Transformer模型采用了殘差連接和Layer Normalization等技術,使得模型訓練更加穩定,減少了梯度消失和梯度爆炸等問題。

    在Transformer模型中,輸入的序列首先經過Embedding層,將每個詞映射為一個向量表示。然后輸入到多層Transformer Encoder中,每一層包括多頭注意力機制和前向傳播網絡。在多頭注意力機制中,模型會計算出每個位置與其他位置的關聯程度,從而得到一個權重向量,將這個權重向量應用到輸入上,就得到了每個位置的加權表示。接下來,模型會將每個位置的加權表示與原始輸入進行殘差連接和Layer Normalization,從而得到更好的表達。

    在ChatGPT模型中,Encoder和Decoder是相同的,因為它是單向的模型,只能使用歷史信息生成當前的文本。每次生成一個新的詞時,模型會將歷史文本作為輸入,通過Decoder生成下一個詞。

    2.1.2預訓練

    ChatGPT模型的預訓練使用的是大規模的無標簽文本數據,例如維基百科、網頁文本等,這些數據可以包含數十億甚至數百億的單詞。預訓練的目的是讓模型學習到文本的語言規律和語義信息,從而提高模型的泛化能力。預訓練使用的是語言建模任務,即在給定部分文本的情況下,模型預測下一個詞是什么。預測的損失函數采用交叉熵損失函數,通過反向傳播和隨機梯度下降算法更新模型參數。

    2.1.3 微調

    ChatGPT模型的微調是指在特定的任務上,針對不同的數據集,對預訓練模型進行微調。微調的目的是將模型應用到具體的場景中,例如聊天機器人、智能客服等。微調過程中,我們會為模型添加一些特定的輸出層,根據具體的任務來調整模型的參數。

    2.2 ChatGPT

    ChatGPT是一款通用的自然語言生成模型,即GPT翻譯成中文就是生成型預訓練變換模型。這個模型被互聯網巨大的語料庫訓練之后,它就可以根據你輸入的文字內容,來生成對應的文字回答。也就是常見的聊天問答模式,比如:

    基于ChatGPT使用AI實現自然對話的原理是什么

    語言模型的工作方式,是對語言文本進行概率建模。

    基于ChatGPT使用AI實現自然對話的原理是什么

    用來預測下一段輸出內容的概率,形式上非常類似于我們小時候玩的文字接龍游戲。比如輸入的內容是你好,模型就會在可能的結果中,選出概率最高的那一個,用來生成下一部分的內容

    基于ChatGPT使用AI實現自然對話的原理是什么

    從體驗的反饋來看,ChatGPT對比其他的聊天機器人,主要在這樣幾個方面上進步明顯:

    • 首先,它對用戶實際意圖的理解有了明顯的提升,以前用過類似的聊天機器人,或者自動客服的朋友,應該會經常遇到機器人兜圈子,甚至答非所問的情況,而ChatGPT在這方面有了顯著的提升,大家在實際體驗了之后感覺都非常的明顯;

    • 其次,是非常強的上下文銜接能力,你不僅能夠問他一個問題,而且還可以通過不斷追加提問的方式,讓它不斷的改進回答內容,最終達到用戶想要的理想效果。

    • 然后,是對知識和邏輯的理解能力,當你遇到某個問題,它不僅只是給一個完整的回答,同時,你對這個問題的各種細節追問,它都能回答出來。

    ChatGPT目前暫時還沒有看到與之相關的論文,但是,官網有一篇Instruct GPT和ChatGPT是非常接近的。在官網上也指出了ChatGPT是InstructGPT的兄弟模型,它經過訓練可以按照指示中的說明進行操作并提供詳細的響應。

    基于ChatGPT使用AI實現自然對話的原理是什么

    這里我們可以看到2個模型的訓練過程非常的相似,文章地址:

    • https://openai.com/research/instruction-following

    • https://openai.com/blog/chatgpt

    ChatGPT訓練流程如下所示:

    基于ChatGPT使用AI實現自然對話的原理是什么

    InstructGPT訓練流程如下所示:

    基于ChatGPT使用AI實現自然對話的原理是什么

    在OpenAI關于InstructiGPT中的論文中,有可以找到這些直觀優勢的量化分析。

    基于ChatGPT使用AI實現自然對話的原理是什么

    InstructGPT對比上一代GPT3:

    • 首先在71%的情況下,InstructGPT生成的回答要比GPT3模型的回答要更加符合訓練人員的喜好。這里提到GPT3是OpenAI的上一代自然語言生成模型。

    • 其次,InstructGPT在回答問題的真實程度上,也會更加可靠,當兩個模型同時被問到他們完全不知道的內容時,InstructGPT只有21%的情況會編造結果,而GPT3就高了,多達到了41%。這里,我們可以發現,即便是最厲害的模型它也有五分之一的概率會胡說八道;

    • 除此之外,InstructGPT在產生有毒回答的概率上也減小了25%。

    所以,匯總下來,InstructGPT比上一代模型能夠提供更加真實可靠的回答,并且回答的內容也會遠比上一代更加符合用戶的意愿。

    3.如何做到這些提升的呢?

    我們要看清楚ChatGPT,為什么可以做到如此出色的效果。就需要我們把視角稍微拉遠一點,看一看這款模型,近幾年的發展歷史。
    ChapGPT是OpenAI的另一款模型,它是InstructGPT的兄弟模型,也就是基于InstructGPT做了一些調整,而InstructGPT的上一代是GPT3,再往上一個版本是GPT2,再往上是GPT,那再往前就是Google的那一篇關于transformer的著名論文(https://arxiv.org/pdf/1706.03762.pdf),這里需要提一下的是,同樣是基于transformer結構的,還有Google自家的BERT架構,以及對應的分支。
    所以,我們能夠得到這樣一個分支圖。

    基于ChatGPT使用AI實現自然對話的原理是什么

    這里,本人能力有限,沒法對每一篇論文分析總結。但是,想提到一些自己在學習的過程中感覺比較有趣的決定和突破。
    首先,同樣是transformer架構上分支出來的,BERT和GPT的一大不同,來自于他們transformer具體結構的區別,BERT使用的是transformer的encoder組件,而encoder的組件在計算某個位置時,會關注他左右兩側的信息,也就是文章的上下文。而GPT使用的是transformer decoder組件,decoder組件在計算某個位置時,只關注它左側的信息,也就是文章的上文。

    基于ChatGPT使用AI實現自然對話的原理是什么

    我們如果用一個通俗的比喻就是,BERT在結構上對上下文的理解會更強,更適合嵌入式的表達,也就是完型填空式的任務。而GPT在結構上更適合只有上文,完全不知道下文的任務,而聊天恰好就是這樣的場景。
    另一個有趣的突破,來自模型量級上的提升。

    基于ChatGPT使用AI實現自然對話的原理是什么

    從GPT到GPT2,再到GPT3,OpenAI大力出奇跡,將模型參數從1.17億,提升到15億,然后進一步暴力提升到了1750億個。以至于GPT3比以前同類型的語言模型,參數量增加了10倍以上。

    基于ChatGPT使用AI實現自然對話的原理是什么

    同時,訓練數據量也從GPT的5GB,增加到GPT2的40GB,再到GPT3的45TB,與此相關的是在方向上

    OpenAI沒有追求模型在特定類型任務上的表現,而是不斷的增加模型的泛化能力。同時,GPT3的訓練費用,也到達了驚人的1200萬美元。

    基于ChatGPT使用AI實現自然對話的原理是什么

    那下一個有趣的節點,就達到了今天的主角ChatGPT的兄弟,InstructGPT。從GPT3到InstructGPT的一個有趣改進。來自于引入了人類的反饋。用OpenAI論文的說法是,在InstructGPT之前,大部分大規模語言模型的目標,都是基于上一個輸入片段token,來推測下一個輸入片段。

    基于ChatGPT使用AI實現自然對話的原理是什么

    然而這個目標和用戶的意圖是不一致的,用戶的意圖是讓語言模型,能夠有用并且安全的遵循用戶的指令,那這里的指令instruction,也就是InstructGPT名字的來源,當然,也就呼應的今天ChatGPT的最大優勢,對用戶意圖的理解。為了達到這個目的,他們引入了人類老師,也就是標記人員,通過標記人員的人工標記,來訓練出一個反饋模型,那這個反饋模型,實際上就是一個模仿喜好,用來給GPT3的結果來打分的模型,然后這個反饋模型再去訓練GPT3,之所以沒有讓標記人員,直接訓練GPT3,可能是因為數據量太大的原因吧。

    基于ChatGPT使用AI實現自然對話的原理是什么

    所以,這個反饋模型,就像是被抽象出來的人類意志。可以用來激勵GPT3的訓練,那整個訓練方法,就被叫做基于人類反饋的強化學習。至此簡易版的InstructGPT的前世今生就介紹完了。我們來回顧一下OpenAI一直在追求的幾個特點:

    • 首先,是只有上文的decoder結構,這種結構下訓練出來的模型,天然適合問答這種交互方式;

    • 然后,是通用模型,OpenAI一直避免在早期架構和訓練階段,就針對某個特定的行業做調優,這也讓GPT3有著很強的通用能力

    • 最后,是巨量數據和巨量參數,從信息論的角度來看,這就像深層的語言模型,涵蓋的人類生活中,會涉及的幾乎所有的自然語言和編程語言,當然,這也就極大的提高了個人或者小公司參與的門檻。

    既然說到了原理,還有一個方面是前面沒有提及到的,就是連續對話的能力。所以,ChatGPT是如何做到能夠記住對話的上下文的呢?
    這一能力,其實在GPT3時代就已經具備了,具體做法是這樣的,語言模型生成回答的方式,其實是基于一個個的token,這里的token,可以粗略的理解為一個個單詞。所以ChatGPT給你生成一句話的回答,其實是從第一個詞開始,重復把你的問題以及當前生成的所有內容,再作為下一次的輸入,再生成下一個token,直到生成完整的回答。

    4.實戰演練

    為了更好地理解ChatGPT模型的實際應用,我們可以嘗試使用Hugging Face提供的Transformers庫來構建一個聊天機器人模型。

    1.準備數據集

    我們可以使用Cornell電影對話數據集來作為ChatGPT模型的訓練數據集。Cornell電影對話數據集包含了超過220,579條對話記錄,每條記錄都有一個問題和一個回答。我們可以將問題和回答組合在一起,形成聊天機器人的訓練樣本。

    2.數據預處理

    在訓練ChatGPT模型之前,我們需要對數據進行預處理,將文本轉換為數字表示。我們可以使用tokenizer將文本轉換為tokens,并將tokens轉換為模型輸入的數字表示。在使用Hugging Face的Transformers庫中,我們可以使用AutoTokenizer自動選擇適合的tokenizer,根據模型的類型和配置來進行初始化。

    以下是對電影對話數據集進行預處理的代碼:

    from transformers import AutoTokenizer
    tokenizer = AutoTokenizer.from_pretrained('distilgpt2')
    pad_token_id = tokenizer.pad_token_id
    max_length = 512
    def preprocess_data(filename):
        with open(filename, 'r', encoding='iso-8859-1') as f:
            lines = f.readlines()
        conversations = []
        conversation = []
        for line in lines:
            line = line.strip()
            if line.startswith('M '):
                conversation.append(line[2:])
            elif line.startswith('E '):
                conversation.append(line[2:])
                if len(conversation) > 1:
                    conversations.append(conversation)
                conversation = []
        questions = []
        answers = []
        for conversation in conversations:
            for i in range(len(conversation) - 1):
                questions.append(conversation[i])
                answers.append(conversation[i+1])
        inputs = tokenizer(questions, answers, truncation=True, padding=True, max_length=max_length)
        return inputs, pad_token_id
    inputs, pad_token_id = preprocess_data('movie_conversations.txt')

    在上述代碼中,我們使用了AutoTokenizer來初始化tokenizer,并指定了最大的序列長度為512。同時,我們也定義了padding token的id,并使用preprocess_data函數來對Cornell電影對話數據集進行預處理。在預處理過程中,我們將每個問題和回答組合在一起,使用tokenizer將文本轉換為tokens,并將tokens轉換為數字表示。我們還設置了padding和truncation等參數,以使得所有輸入序列長度相同。

    3.訓練模型

    在對數據集進行預處理后,我們可以使用Hugging Face的Transformers庫中提供的GPT2LMHeadModel類來構建ChatGPT模型。GPT2LMHeadModel是一個帶有語言模型頭的GPT-2模型,用于生成與前面輸入的文本相關的下一個詞。

    以下是使用GPT2LMHeadModel訓練ChatGPT模型的代碼:

    from transformers import GPT2LMHeadModel, Trainer, TrainingArguments
    model = GPT2LMHeadModel.from_pretrained('distilgpt2')
    model.resize_token_embeddings(len(tokenizer))
    training_args = TrainingArguments(
        output_dir='./results',
        num_train_epochs=3,
        per_device_train_batch_size=4,
        save_total_limit=2,
        save_steps=1000,
        logging_steps=500,
        evaluation_strategy='steps',
        eval_steps=1000,
        load_best_model_at_end=True,
    )
    trainer = Trainer(
        model=model,
        args=training_args,
        train_dataset=inputs['input_ids'],
        data_collator=lambda data: {'input_ids': torch.stack(data)},
    )
    trainer.train()

    在上述代碼中,我們首先使用GPT2LMHeadModel來初始化ChatGPT模型,并調整Embedding層的大小以適應我們的tokenizer。接下來,我們定義了TrainingArguments來配置訓練參數。其中包括了訓練的輪數、每批次的大小、模型保存路徑等信息。最后,我們使用Trainer類來訓練模型。在這里,我們將輸入數據傳遞給train_dataset參數,并使用一個data_collator函數將輸入數據打包成一個批次。

    4.生成文本

    在訓練完成后,我們可以使用ChatGPT模型來生成文本。在Hugging Face的Transformers庫中,我們可以使用pipeline來實現文本生成。

    以下是使用ChatGPT模型生成文本的代碼:

    from transformers import pipeline
    generator = pipeline('text-generation', model=model, tokenizer=tokenizer)
    def generate_text(prompt):
        outputs = generator(prompt, max_length=1024, do_sample=True, temperature=0.7)
        generated_text = outputs[0]['generated_text']
        return generated_text
    generated_text = generate_text('Hello, how are you?')
    print(generated_text)

    在上述代碼中,我們首先使用pipeline函數來初始化一個文本生成器,其中指定了ChatGPT模型和tokenizer。接下來,我們定義了generate_text函數來使用生成器生成文本。在這里,我們傳入一個prompt字符串作為生成的起始點,并使用max_length參數來指定生成文本的最大長度,使用do_sample和temperature參數來控制文本的隨機性和流暢度。

    以上就是“基于ChatGPT使用AI實現自然對話的原理是什么”這篇文章的所有內容,感謝各位的閱讀!相信大家閱讀完這篇文章都有很大的收獲,小編每天都會為大家更新不同的知識,如果還想學習更多的知識,請關注億速云行業資訊頻道。

    向AI問一下細節

    免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。

    AI

    巴楚县| 包头市| 皋兰县| 西乌珠穆沁旗| 林州市| 兴安县| 阿拉善左旗| 新平| 霞浦县| 平凉市| 桐庐县| 临清市| 施秉县| 麻栗坡县| 阜新市| 鹤峰县| 措勤县| 疏勒县| 克山县| 晋中市| 高清| 温宿县| 卫辉市| 准格尔旗| 庆元县| 南皮县| 平阳县| 定日县| 汝城县| 方正县| 忻城县| 偏关县| 封开县| 乌兰浩特市| 石泉县| 高安市| 淳化县| 碌曲县| 五台县| 分宜县| 大竹县|