ProPerNounpYK commited on
Commit
8280d3c
·
verified ·
1 Parent(s): e0eed33

Update app.py

Browse files
Files changed (1) hide show
  1. app.py +6 -6
app.py CHANGED
@@ -5,20 +5,20 @@ import requests
5
  import pandas as pd
6
 
7
  # Hugging Face 토큰 확인
8
- hftoken = os.getenv("HF_TOKEN")
9
 
10
- if not hftoken:
11
  raise ValueError("HF_TOKEN 환경 변수가 설정되지 않았습니다.")
12
 
13
  # 모델 정보 확인
14
- api = HfApi(token=hftoken)
15
 
16
  try:
17
- client = InferenceClient("meta-llama/Meta-Llama-3-70B-Instruct", token=hftoken)
18
  except Exception as e:
19
  print(f"rror initializing InferenceClient: {e}")
20
  # 대체 모델을 사용하거나 오류 처리를 수행하세요.
21
- # 예: client = InferenceClient("gpt2", token=hftoken)
22
 
23
  # 현재 스크립트의 디렉토리를 기준으로 상대 경로 설정
24
  currentdir = os.path.dirname(os.path.abspath(file))
@@ -57,7 +57,7 @@ def respond(
57
  fullprompt += f"Human: {message}\nAI:"
58
 
59
  APIL = "https://api-inference.huggingface.co/models/meta-llama/Meta-Llama-3-70B-Instruct"
60
- headers = {"Authorization": f"Bearer {hftoken}"}
61
 
62
  def query(payload):
63
  response = requests.post(APIL, headers=headers, json=payload)
 
5
  import pandas as pd
6
 
7
  # Hugging Face 토큰 확인
8
+ hf_token = os.getenv("HF_TOKEN")
9
 
10
+ if not hf_token:
11
  raise ValueError("HF_TOKEN 환경 변수가 설정되지 않았습니다.")
12
 
13
  # 모델 정보 확인
14
+ api = HfApi(token=hf_token)
15
 
16
  try:
17
+ client = InferenceClient("meta-llama/Meta-Llama-3-70B-Instruct", token=hf_token)
18
  except Exception as e:
19
  print(f"rror initializing InferenceClient: {e}")
20
  # 대체 모델을 사용하거나 오류 처리를 수행하세요.
21
+ # 예: client = InferenceClient("gpt2", token=hf_token)
22
 
23
  # 현재 스크립트의 디렉토리를 기준으로 상대 경로 설정
24
  currentdir = os.path.dirname(os.path.abspath(file))
 
57
  fullprompt += f"Human: {message}\nAI:"
58
 
59
  APIL = "https://api-inference.huggingface.co/models/meta-llama/Meta-Llama-3-70B-Instruct"
60
+ headers = {"Authorization": f"Bearer {hf_token}"}
61
 
62
  def query(payload):
63
  response = requests.post(APIL, headers=headers, json=payload)