Spaces:
Runtime error
Runtime error
Update app.py
Browse files
app.py
CHANGED
|
@@ -5,20 +5,20 @@ import requests
|
|
| 5 |
import pandas as pd
|
| 6 |
|
| 7 |
# Hugging Face 토큰 확인
|
| 8 |
-
|
| 9 |
|
| 10 |
-
if not
|
| 11 |
raise ValueError("HF_TOKEN 환경 변수가 설정되지 않았습니다.")
|
| 12 |
|
| 13 |
# 모델 정보 확인
|
| 14 |
-
api = HfApi(token=
|
| 15 |
|
| 16 |
try:
|
| 17 |
-
client = InferenceClient("meta-llama/Meta-Llama-3-70B-Instruct", token=
|
| 18 |
except Exception as e:
|
| 19 |
print(f"rror initializing InferenceClient: {e}")
|
| 20 |
# 대체 모델을 사용하거나 오류 처리를 수행하세요.
|
| 21 |
-
# 예: client = InferenceClient("gpt2", token=
|
| 22 |
|
| 23 |
# 현재 스크립트의 디렉토리를 기준으로 상대 경로 설정
|
| 24 |
currentdir = os.path.dirname(os.path.abspath(file))
|
|
@@ -57,7 +57,7 @@ def respond(
|
|
| 57 |
fullprompt += f"Human: {message}\nAI:"
|
| 58 |
|
| 59 |
APIL = "https://api-inference.huggingface.co/models/meta-llama/Meta-Llama-3-70B-Instruct"
|
| 60 |
-
headers = {"Authorization": f"Bearer {
|
| 61 |
|
| 62 |
def query(payload):
|
| 63 |
response = requests.post(APIL, headers=headers, json=payload)
|
|
|
|
| 5 |
import pandas as pd
|
| 6 |
|
| 7 |
# Hugging Face 토큰 확인
|
| 8 |
+
hf_token = os.getenv("HF_TOKEN")
|
| 9 |
|
| 10 |
+
if not hf_token:
|
| 11 |
raise ValueError("HF_TOKEN 환경 변수가 설정되지 않았습니다.")
|
| 12 |
|
| 13 |
# 모델 정보 확인
|
| 14 |
+
api = HfApi(token=hf_token)
|
| 15 |
|
| 16 |
try:
|
| 17 |
+
client = InferenceClient("meta-llama/Meta-Llama-3-70B-Instruct", token=hf_token)
|
| 18 |
except Exception as e:
|
| 19 |
print(f"rror initializing InferenceClient: {e}")
|
| 20 |
# 대체 모델을 사용하거나 오류 처리를 수행하세요.
|
| 21 |
+
# 예: client = InferenceClient("gpt2", token=hf_token)
|
| 22 |
|
| 23 |
# 현재 스크립트의 디렉토리를 기준으로 상대 경로 설정
|
| 24 |
currentdir = os.path.dirname(os.path.abspath(file))
|
|
|
|
| 57 |
fullprompt += f"Human: {message}\nAI:"
|
| 58 |
|
| 59 |
APIL = "https://api-inference.huggingface.co/models/meta-llama/Meta-Llama-3-70B-Instruct"
|
| 60 |
+
headers = {"Authorization": f"Bearer {hf_token}"}
|
| 61 |
|
| 62 |
def query(payload):
|
| 63 |
response = requests.post(APIL, headers=headers, json=payload)
|