Siema, jest mi ktoś w stanie wytłumaczyć jak policzyć jebany w dupę błąd pomiaru multimetru? Jak mam wynik 9.32V na prądzie stałym na baterii i w instrukcji pisze, że dla prądu do 40.00V rozdzielczość wynosi 10mV, a dokładność ±(0.7% + 3), i mam wzór na ten błąd: ΔX = ±(aX + cXmin), to rozumiem, że mam to czytać tak: a - 0.7%; c - 3; Xmin to jest 0.01, bo to Xmin się bierze z rozdzielczości tak? czyli wynik wychodzi (0.007 * 9.32 + 3 * 0.01) ? Bo kurwa na elektrodach piszą tak, że się ich zrozumieć nie da, śmieć gpt wypluwa że Xmin to wcale nie 30mV, tylko 3mV, bo takie są wartości i chuj, gdzieś jakieś tabelki z tymi rozdzielczościami poznajdywałem i już kurwa nie wiem o co chodzi i skąd ten Xmin brać