makeBCT

#AI #OpenAI #Chatbot #Cloud #WordPress

OpenAI API : Retrieve fine-tune 살펴 보겠습니다

이번에는 Retrieve fine-tune 에 대해서 살펴 보겠습니다

(2) Retrieve fine-tune

제목내용설명
RequestGET https://api.openai.com/v1/fine-tunes/{fine_tune_id}Gets info about the fine-tune job.
Parametersfint_tune_id (string / 필수)The ID of the fine-tune job

Request 샘플과 response 값을 살펴 보겠습니다.

Requestcurl https://api.openai.com/v1/fine-tunes/ft-AF1WoRqd3aJAHsqc9NY7iL8F \
-H “Authorization: Bearer $OPENAI_API_KEY”
Response{
“id”: “ft-AF1WoRqd3aJAHsqc9NY7iL8F”,
“object”: “fine-tune”,
“model”: “curie”,
“created_at”: 1614807352,
“events”: [
{
“object”: “fine-tune-event”,
“created_at”: 1614807352,
“level”: “info”,
“message”: “Job enqueued. Waiting for jobs ahead to complete. Queue number: 0.”
},
{
“object”: “fine-tune-event”,
“created_at”: 1614807356,
“level”: “info”,
“message”: “Job started.”
},
{
“object”: “fine-tune-event”,
“created_at”: 1614807861,
“level”: “info”,
“message”: “Uploaded snapshot: curie:ft-acmeco-2021-03-03-21-44-20.”
},
{
“object”: “fine-tune-event”,
“created_at”: 1614807864,
“level”: “info”,
“message”: “Uploaded result files: file-QQm6ZpqdNwAaVC3aSz5sWwLT.”
},
{
“object”: “fine-tune-event”,
“created_at”: 1614807864,
“level”: “info”,
“message”: “Job succeeded.”
}
],
“fine_tuned_model”: “curie:ft-acmeco-2021-03-03-21-44-20”,
“hyperparams”: {
“batch_size”: 4,
“learning_rate_multiplier”: 0.1,
“n_epochs”: 4,
“prompt_loss_weight”: 0.1,
},
“organization_id”: “org-…”,
“result_files”: [
{
“id”: “file-QQm6ZpqdNwAaVC3aSz5sWwLT”,
“object”: “file”,
“bytes”: 81509,
“created_at”: 1614807863,
“filename”: “compiled_results.csv”,
“purpose”: “fine-tune-results”
}
],
“status”: “succeeded”,
“validation_files”: [],
“training_files”: [
{
“id”: “file-XGinujblHPwGLSztz8cPS8XY”,
“object”: “file”,
“bytes”: 1547276,
“created_at”: 1610062281,
“filename”: “my-data-train.jsonl”,
“purpose”: “fine-tune-train”
}
],
“updated_at”: 1614807865,
}

Response 중 진행된 [Events] 값을 출력해 보면 다음과 같습니다.

Fine-tune 시작 일시(2023-04-27 00:03:20)부터 Fine-tune succeeded(2023-04-27 00:04:02)까지 약 40초 가량 되는 것 같네요. 물론 업로드 데이터 size도 얼마되지 않았습니다.

Training에 사용된 기본 Hyper-params 값을 살펴보면 다음과 같습니다.

기본값으로 Epoch 4, 배치 1, loss weight 0.01, learning rate multiplier 0.1이 설정된 것을 확인할 수 있습니다.

결과 값을 살펴 보겠습니다.

파일 ID, Purpose, 파일 생성 일시, Filename, Status, 결과 파일 Download 값을 확인할 수 있으며, Download 값을 확인해 보려고 했더니 추가 작업이 필요하네요. 이건 다음에 보도록 하겠습니다.

Leave a Reply

Your email address will not be published. Required fields are marked *

This site uses Akismet to reduce spam. Learn how your comment data is processed.

인기 글

사용자 작성 모듈 import 시 에러)(ModuleNotFoundError: No module named
파이썬 모듈을 만들고 테스트 할 때 ModuleNotFoundError: No module named 에러가 발생한 경우원인파이썬은 모듈을 불러올 때 모듈 설치 경로와 자신의...
오라클 클라우드 OCI 가입 드디어 성공 했습니다 (상세 후기)
2023년 2월 16일에 ‘오라클 클라우드 지급 검증 실패 글‘을 남긴 적이 있습니다.그 때 검색을 통해 해결 방법을 찾아 보았고, 당시 성공했던 분들의...
Permission denied (publickey) 해결 방법
Plesk에서 생성된 system user로 ftp 접속 시 다음과 같은 에러 메시지가 발생하면서 접속이 되지 않습니다.상태: 152.67.193.32:49152에 연결... 응답: fzSftp...
AWS 인스턴스 유형 변경 방법
AWS 인스턴스 유형을 변경하기 위한 방법에는 다음 2가지가 있습니다.   1. 첫 번째 방법 AMI 이미지 생성 후 해당 이미지를 복원하여 신규 EC2 인스턴스를 생성하는...
WSL2/Ubuntu 22.04 LTS에 Anaconda 설치 
WSL2/Ubuntu 환경에서 Python 버전별로 가상환경을 만드는 방법 중 그나마 Anaconda 방법이 좋은 것 같네요. 설치 방법은 간단합니다.1. apt update사용자...

BCT Ai Chatbot

답변을 준비중입니다 . . .