Model Card
๋ชจ๋ธ ๊ฐ์
์ด ๋ชจ๋ธ์ **bert-base-uncased**๋ฅผ ๊ธฐ๋ฐ์ผ๋ก ํ์ธํ๋ํ ํ
์คํธ ๋ถ๋ฅ ๋ชจ๋ธ์
๋๋ค.
๋ฐ์ดํฐ์
์ผ๋ก๋ AG News๋ฅผ ์ฌ์ฉํ์์ผ๋ฉฐ, ์ด 4๊ฐ์ ์นดํ
๊ณ ๋ฆฌ(์ธ๊ณ๋ด์ค, ์คํฌ์ธ , ๋น์ฆ๋์ค, ๊ณผํ/๊ธฐ์ )๋ก ๋ถ๋ฅํ ์ ์์ต๋๋ค.
๋ฒ ์ด์ค ๋ชจ๋ธ:
bert-base-uncasedํ์ธํ๋ ๋ฐ์ดํฐ: AG News
ํ์คํฌ(Task): ํ ์คํธ ๋ถ๋ฅ (4-class classification)
๋ผ๋ฒจ(Label) ์ ์:
0: ์ธ๊ณ๋ด์ค (World News)1: ์คํฌ์ธ (Sports)2: ๋น์ฆ๋์ค (Business)3: ๊ณผํ/๊ธฐ์ (Sci/Tech)
์ฌ์ฉ ๋ฐฉ๋ฒ
from transformers import AutoTokenizer, AutoModelForSequenceClassification
import torch
# ๋ชจ๋ธ ๋ก๋
model_name = "blockenters/bert-based-uncased-agnews4-v01"
tokenizer = AutoTokenizer.from_pretrained(model_name)
model = AutoModelForSequenceClassification.from_pretrained(model_name)
# ์
๋ ฅ ์์
text = "NASA launches a new satellite into space"
inputs = tokenizer(text, return_tensors="pt")
# ์ถ๋ก
with torch.no_grad():
outputs = model(**inputs)
predictions = torch.argmax(outputs.logits, dim=-1)
print("Predicted label:", predictions.item())
์ฑ๋ฅ
ํ๊ฐ ๋ฐ์ดํฐ์ : AG News test set
๋ฉํธ๋ฆญ: Accuracy
๊ฒฐ๊ณผ (์์ ๊ฐ, ์ง์ ์ธก์ ํด์ ์ฑ์์ฃผ์ธ์):
- Accuracy:
0.86 - F1-score (weighted):
0.86
- Accuracy:
ํ์ฉ ์ฌ๋ก
- ๋ด์ค ๊ธฐ์ฌ ์๋ ๋ถ๋ฅ
- ๋ด์ค ์ถ์ฒ ์์คํ ์ ์ ์ฒ๋ฆฌ ๋จ๊ณ
- ํ ํฝ ๊ธฐ๋ฐ ํ ์คํธ ๋ถ์
์ ํ ์ฌํญ
- ์์ด ๋ฐ์ดํฐ์ (AG News)๋ก ํ์ตํ๊ธฐ ๋๋ฌธ์ ์์ด ํ ์คํธ ๋ถ๋ฅ์ ์ต์ ํ๋จ
- ๋ค๋ฅธ ์ธ์ด ํ ์คํธ์๋ ์ฑ๋ฅ์ด ๋จ์ด์ง ์ ์์
- ์ต์ ๋ด์ค ์ด๋ฒคํธ์ ๋ํ ํ์ต์ ํฌํจ๋์ด ์์ง ์์
๋ผ์ด์ ์ค
- ๋ฒ ์ด์ค ๋ชจ๋ธ(
bert-base-uncased)์ ๋ผ์ด์ ์ค๋ Apache 2.0์ ๋๋ค. - AG News ๋ฐ์ดํฐ์ ์ open dataset์ผ๋ก ๊ณต๊ฐ๋์ด ์์ต๋๋ค.
- Downloads last month
- 6
Inference Providers
NEW
This model isn't deployed by any Inference Provider.
๐
Ask for provider support