AI Notes

  • Finetune Falcon 7b/40b instruct with your own data – คือ เอา Falcon มาลอง fine tune โดยเพิ่มข้อมูล prompt+response แบบที่เราต้องการเข้าไปเอง แล้วก็ train เพื่อให้โมเดลตอบแบบที่ train เพิ่มไปได้
%%time
device = "cuda:0"

encoding = tokenizer(prompt, return_tensors="pt").to(device)

# Ott 20231029
#with torch.inference_mode():
with torch.no_grad():
outputs = model.generate(
input_ids = encoding.input_ids,
attention_mask = encoding.attention_mask,
generation_config = generation_config
)

print(tokenizer.decode(outputs[0], skip_special_tokens=True))

Leave a comment