Badacze z Hugging Face stworzyli MedQA — model AI do pytań medycznych trenowany wyłącznie na sprzęcie AMD ROCm, udowadniając alternatywę dla NVIDIA.
Źródło zdjęcia: huggingface.co

Nowy model OpenAI kosztuje znacznie więcej niż GPT-5.4. Największy wzrost dotyczy krótkich zapytań — nawet o 92 procent więcej.

Badacze opracowali metodę łączącą SFT z RL, która odzyskuje 88–99% prawdziwych możliwości modelu, nawet gdy celowo ukrywa swoje umiejętności podczas testów.
Zespół badaczy z Hugging Face przedstawił MedQA — model sztucznej inteligencji do odpowiadania na pytania medyczne, który został wytrenowany w całości na sprzęcie AMD z wykorzystaniem technologii ROCm, bez konieczności używania CUDA. Szczegóły projektu pokazują, jak osiągnąć efektywne trenowanie modeli AI poza ekosystemem NVIDIA.
MedQA bazuje na modelu Qwen3–1.7B dostrojonym techniką LoRA do odpowiadania na pytania z egzaminów medycznych. Całość została zrealizowana na akceleratorze AMD Instinct MI300X wyposażonym w 192 GB pamięci HBM3, co pozwoliło na trenowanie bez kompresji modelu.
Projekt celowo wykorzystał sprzęt AMD, aby udowodnić, że trenowanie modeli AI nie musi być uzależnione od ekosystemu NVIDIA. AMD Instinct MI300X oferuje znaczną przewagę pod względem pamięci — 192 GB HBM3 w jednym urządzeniu to więcej niż większość kart NVIDIA dostępnych na rynku.
Kluczowe było to, że cały proces nie wymagał żadnych modyfikacji kodu. Standardowy pipeline treningowy z bibliotek Hugging Face działał natywnie po ustawieniu trzech zmiennych środowiskowych:
ROCR_VISIBLE_DEVICES = "0"HIP_VISIBLE_DEVICES = "0"HSA_OVERRIDE_GFX_VERSION = "9.4.2"Jako dane treningowe wykorzystano MedMCQA — dataset zawierający pytania wielokrotnego wyboru z indyjskich egzaminów medycznych (AIIMS, w stylu USMLE). Każdy przykład zawiera pytanie kliniczne, cztery opcje odpowiedzi A-D, prawidłową odpowiedź oraz opcjonalne wyjaśnienie.
Model bazowy Qwen3–1.7B został wybrany ze względu na kompaktowy rozmiar (1,7 mld parametrów) przy zachowaniu zdolności do generowania spójnego rozumowania klinicznego. Technika LoRA (Low-Rank Adaptation) pozwoliła na dostrojenie tylko wybranych warstw uwagi, pozostawiając podstawowe wagi modelu zamrożone.
Trenowanie wykorzystywało następującą konfigurację LoRA:
Proces treningowy trwał 2 epoki z batch size 4 i akumulacją gradientu 4 (efektywny batch size 16). Wykorzystano precyzję fp16, harmonogram cosine z warmupem oraz gradient checkpointing dla optymalizacji pamięci.
Model MedQA demonstruje, że wysokiej jakości trenowanie modeli medycznych AI jest możliwe poza ekosystemem CUDA, otwierając nowe możliwości dla badaczy pracujących ze sprzętem AMD.