728x90
반응형
huggingface에서 LLM test해보려구 모델을 다운 받으려는데,
아 맞네, 하고 key 생성을 위해서 아래 방법을 참조했으나,
처참하게 아래와 같이 command not found
pip install -U "huggingface_hub[cli]"
아래와 같이 입력해보라해서도 실패했는데, sudo 권한으로 했더니 성공
login을 위해 token 생성, 등록 완료
이제 다운받아야지 모델...
# Load model directly
from transformers import AutoTokenizer, AutoModelForCausalLM
tokenizer = AutoTokenizer.from_pretrained("meta-llama/Meta-Llama-3-8B-Instruct")
model = AutoModelForCausalLM.from_pretrained("meta-llama/Meta-Llama-3-8B-Instruct")
실행하면 열심히 다운받아진다 ㅎㅎ
'배움 로그 > data science' 카테고리의 다른 글
KRX 증시 데이터 크롤링 시 참고해야 하는 휴장일 정보 (0) | 2024.01.12 |
---|---|
KRX 업종 분류 crawling error 해결 (2) | 2023.12.07 |
python 패키지 설치 목록 requirements.txt로 저장하기 (0) | 2023.10.19 |
Python/Pandas - Google Drive/Sheet에서 데이터 프레임으로 데이터 불러오기, 저장하기 (0) | 2023.03.21 |
Python 3.11 32bit - Pandas 설치 Fail 오류 해결하기 (2) | 2023.03.16 |
댓글