File size: 2,183 Bytes
5d91a83
 
dab8b3f
 
 
 
32a590b
dab8b3f
 
5ef5b50
6797664
 
3237887
8429aff
 
 
 
dab8b3f
 
32a590b
c6ef738
3488529
71547b1
3488529
78adb3e
 
650b7f8
 
 
41e9c6d
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
---
license: bigscience-bloom-rail-1.0
datasets:
- jslin09/Fraud_Case_Verdicts
language:
- zh
- multilingual
metrics:
- accuracy
pipeline_tag: text-generation
text-generation:
  parameters:
    max_length: 256
    do_sample: True
    temperature: 0.75
    top_k: 50 
    top_p: 0.9
tags:
- legal
widget:
- text: 王大明意圖為自己不法所有,基於竊盜之犯意,
  example_title: 生成竊盜罪之犯罪事實
- text: 騙人布意圖為自己不法所有,基於詐欺取財之犯意,
  example_title: 生成詐欺罪之犯罪事實
- text: '森上梅前明知其無資力支付酒店消費,亦無付款意願,竟意圖為自己不法之所有,'
  example_title: 生成吃霸王餐之詐欺犯罪事實
---

# 判決書例稿自動生成
本模型是以司法院公開之判決書(案由為詐欺)為資料集,以判決書中之「犯罪事實」欄之內容為素材,基於BLOOM 560m 小模型進行遷移學習訓練。在本網頁進行測試時,請在模型載入完畢並生成第一小句後,持續按下Compute按鈕,就能持續生成文字。或是輸入自己想要測試的資料到文字框中進行測試。

# 使用範例
<pre>
import requests, json
from time import sleep
from tqdm.auto import tqdm, trange

API_URL = "https://api-inference.huggingface.co/models/jslin09/bloom-560m-finetuned-fraud"
headers = {"Authorization": "Bearer XXXXXXXXXXXXXXX"} # 調用模型的 API token

def query(payload):
    response = requests.post(API_URL, headers=headers, json=payload)
    return json.loads(response.content.decode("utf-8"))
	
query_dict = {
	"inputs": "森上梅前明知其無資力支付酒店消費,亦無付款意願,竟意圖為自己不法之所有,",
}
text_len = 150
t = trange(text_len, desc= '生成例稿', leave=True)
for i in t:
    response = query(query_dict)
    try:
        response_text = response[0]['generated_text']
        query_dict["inputs"] = response_text
        t.set_description(f"{i}: {response[0]['generated_text']}")
        t.refresh()
    except KeyError:
        sleep(30) # 如果伺服器太忙無回應,等30秒後再試。
        pass
print(response[0]['generated_text'])
</pre>