RU

Alex Nikolich

Учу сетки всякому
Alex Nikolich
3
подписчика
цели
246.46 из $ 61 006 собрано
Хочу dgx1

Об авторе

MagicMix
Пост доступен только после покупки

RITA: a Study on Scaling Up Generative Protein Sequence Models

Есть классическая задача моделирования протеина,
которую очень хорошо решают трансформеры тк речь идет о вполне NLPшной последовательности.
- 280m протеиновых последовательностей в претрейне из сетов UniRef-100, MGnify и
Metaclust
- Rotary Positional Embeddings просто потому что это улучшает качество модели
- Претрейн как GPT3 с аналогичными гипараметрами в
следующих размерах: 85, 300, 68m и 1.2b соотвественно с seqlen 1024
- По метрикам обгонят PROTOGPT2
доступно в huggingaface простым AutoModelForCausalLM.from_pretrained("lightonai/RITA_s", trust_remote_code=True)
датасет лежит тут

Новая модель image 2text

Топовый кэпшенинг в каждый проект
Никто не просил, никто не ждал, но я наконец доделал и выложил самый(вероятно) быстрый captioning на русском языке. Модель основанная на работе CLIP prefix caption, обучена на ruCOCO на 2*1080ti и выложена
Алсо моделька умеет в ZS и при должном promt может решать простенькие VQA задачки
githubhf 🤗HFspaces🤗collab 🔮
Лайк шер звездочка ✨
https://github.com/AlexWortega/ruImageCaptioning

Уровни подписки

Нет уровней подписки
Наверх