Update app.py
Browse files
app.py
CHANGED
@@ -16,8 +16,9 @@ tokenizer = AutoTokenizer.from_pretrained("moussaKam/AraBART", max_length=128, p
|
|
16 |
model = AutoModelForMaskedLM.from_pretrained("Hamda/test-1-finetuned-AraBART")
|
17 |
|
18 |
#@st.cache
|
|
|
19 |
if (st.button('بحث', disabled=False)):
|
20 |
-
|
21 |
def next_word(text, pipe):
|
22 |
res_dict= {
|
23 |
'الكلمة المقترحة':[],
|
@@ -35,11 +36,11 @@ if (st.button('بحث', disabled=False)):
|
|
35 |
df = pd.DataFrame.from_dict(dict_next_words)
|
36 |
df.reset_index(drop=True, inplace=True)
|
37 |
st.dataframe(df)
|
38 |
-
|
39 |
-
|
40 |
if (st.checkbox('الاستعانة بالرسم البياني', value=False)):
|
41 |
#if (st.button('استعمال الرسم البياني', disabled=False)):
|
42 |
-
|
43 |
VocMap = './voc.csv'
|
44 |
ScoreMap = './BM25.csv'
|
45 |
|
@@ -53,7 +54,7 @@ if (st.checkbox('الاستعانة بالرسم البياني', value=False)):
|
|
53 |
return df_voc, df_graph, df_gr
|
54 |
|
55 |
df3, df_g, df_in = reading_df(VocMap, ScoreMap)
|
56 |
-
|
57 |
#@st.cache
|
58 |
def Query2id(voc, query):
|
59 |
return [voc.index[voc['word'] == word].values[0] for word in query.split()]
|
|
|
16 |
model = AutoModelForMaskedLM.from_pretrained("Hamda/test-1-finetuned-AraBART")
|
17 |
|
18 |
#@st.cache
|
19 |
+
start = time()
|
20 |
if (st.button('بحث', disabled=False)):
|
21 |
+
|
22 |
def next_word(text, pipe):
|
23 |
res_dict= {
|
24 |
'الكلمة المقترحة':[],
|
|
|
36 |
df = pd.DataFrame.from_dict(dict_next_words)
|
37 |
df.reset_index(drop=True, inplace=True)
|
38 |
st.dataframe(df)
|
39 |
+
finish = time()
|
40 |
+
exec_time = 0
|
41 |
if (st.checkbox('الاستعانة بالرسم البياني', value=False)):
|
42 |
#if (st.button('استعمال الرسم البياني', disabled=False)):
|
43 |
+
a = time()
|
44 |
VocMap = './voc.csv'
|
45 |
ScoreMap = './BM25.csv'
|
46 |
|
|
|
54 |
return df_voc, df_graph, df_gr
|
55 |
|
56 |
df3, df_g, df_in = reading_df(VocMap, ScoreMap)
|
57 |
+
|
58 |
#@st.cache
|
59 |
def Query2id(voc, query):
|
60 |
return [voc.index[voc['word'] == word].values[0] for word in query.split()]
|