Spaces:
Running
Running
Update app.py
Browse files
app.py
CHANGED
@@ -59,7 +59,7 @@ with gr.Blocks() as demo:
|
|
59 |
</p>
|
60 |
<h3>摘要</h3>
|
61 |
<p>
|
62 |
-
隨著大型語言模型技術的發展,藉由微調預訓練的大型語言模型來解決自然語言處理的下游任務,已經是主流的範式。然而,訓練法律專業領域的語言模型,需要有大量的法律文件,以便讓語言模型能學得法律術語以及法律文書格式的特殊性,因此,通常需要依賴大量人工標註的資料集進行訓練,而在法律領域的應用,取得大量人工標註的資料集是有實際上的困難,這使得傳統的NLP
|
63 |
</p>
|
64 |
""")
|
65 |
with gr.Column(scale=1, min_width=600):
|
|
|
59 |
</p>
|
60 |
<h3>摘要</h3>
|
61 |
<p>
|
62 |
+
隨著大型語言模型技術的發展,藉由微調預訓練的大型語言模型來解決自然語言處理的下游任務,已經是主流的範式。然而,訓練法律專業領域的語言模型,需要有大量的法律文件,以便讓語言模型能學得法律術語以及法律文書格式的特殊性,因此,通常需要依賴大量人工標註的資料集進行訓練,而在法律領域的應用,取得大量人工標註的資料集是有實際上的困難,這使得傳統的NLP方法應用在法律文件起草中的任務就受到了限制。本文實驗結果表明,以大量無標記的法律文件,在本地端電腦中微調大型預訓練語言模型來達成文件草稿生成任務的可行性。此外,除了顯著提高微調後所得之模型在法律文件起草任務上的性能之外,並為實現自動化法律文件起草提供了新的思路和方法,同時保障了資訊隱私以及降低資訊安全等問題。
|
63 |
</p>
|
64 |
""")
|
65 |
with gr.Column(scale=1, min_width=600):
|