ai-content-maker/.venv/Lib/site-packages/spacy/tests/lang/yo/test_text.py

31 lines
1.5 KiB
Python
Raw Permalink Normal View History

2024-05-03 04:18:51 +03:00
import pytest
from spacy.lang.yo.lex_attrs import like_num
def test_yo_tokenizer_handles_long_text(yo_tokenizer):
text = """Àwọn ọmọ ìlú tí wọ́n ń ṣàmúlò ayélujára ti bẹ̀rẹ̀ ìkọkúkọ sórí àwòrán ààrẹ Nkurunziza nínú ìfẹ̀hónúhàn pẹ̀lú àmì ìdámọ̀: Nkurunziza àti Burundi:
Ọmọ ilé ̀kọ́ gíga ̀wọ̀n fún kíkọ ìkọkúkọ orí àwòrán Ààrẹ .
mo ṣe èyí Burundi , ó ṣe é ṣe a fi àtìmọ́
Ìjọba Burundi fi akẹ́kọ̀́bìnrin àtìmọ́ látàrí ̀sùn ìkọkúkọ orí àwòrán ààrẹ. A túwíìtì àwòrán ìkọkúkọ wa ìbánikẹ́dùn ìṣẹ̀lẹ̀ náà.
Wọ́n a dán an , a kọ nǹkan orí àwòrán ààrẹ mo ṣe bẹ́̀. Mo ìgbóyà wípé ẹnikẹ́ni mi níbí.
Ìfòfinlíle àtakò"""
tokens = yo_tokenizer(text)
assert len(tokens) == 121
@pytest.mark.parametrize(
"text,match",
[("ení", True), ("ogun", True), ("mewadinlogun", True), ("ten", False)],
)
def test_lex_attrs_like_number(yo_tokenizer, text, match):
tokens = yo_tokenizer(text)
assert len(tokens) == 1
assert tokens[0].like_num == match
@pytest.mark.parametrize("word", ["eji", "ejila", "ogun", "aárùn"])
def test_yo_lex_attrs_capitals(word):
assert like_num(word)
assert like_num(word.upper())