Здравствуйте, у меня вопрос по Ge Force, PX8800 GTS и вот какого характера: когда ставлю карточку в слот и подключаю доп. питание, БП уходит в защиту. Решил я её поковырять: по 3-х фазовом питанию GPU прозвонил на сопротивление относительно корпуса, отпаявши при этом дросселя L8,9,10. Мультиметер показал на стороне Vgpu реальных 1 Ом с учетом сопротивления щупов, полевики вроде живые. Подскажите пожалуйста, какое нормальное сопротивление должно быть на Vss (Живой ли GPU?). Если ещё есть надежда, куда копать дальше? Большое спасибо всем отозвавшимся!
здравствуйте все!У меня GF8800GT VER:C(PCI-E) 512MB 256BIT DDRIII при подключении доп. питания ,БП уходит в защиту.Вместе копать веселей!!!
Это нормальное сопротивление для данного GPU. У вас пробит один из полевиков в верхнем плече преобразователя у которого на стоке +12В.
Большое спасибо за подсказку PartyZan, разберусь, обязательно отпишусь! Вот нашел схемку питания GPU, может кому пригодится...
Проверил все полевики с выпайкай - норма! Есть ли у кого нормальная схема с обвязкой ШИМ-контролера PX3544, меня интересует конкретно транзистор Q 503 ? Буду очень благодарен!!!
я только половину деталей отпаял.пока ничего...
сейчас выпаял Q5 ME60N03,он отличался по сопротивлению от других,померял(на доп. питании)-короткого нет,заменю - отпишусь,что получится.
PartyZan,подскажи чем заменить 60N03,ПОЖАЛУЙСТА!
rom.by/book/Kak_podobrat_analog_polevogo_tranzistora
rom.by/comment/177765
Powerman,большое спасибо,хорошая информация!Теперь после праздника продолжу(на работе).
Вот теперь с радостью могу сказать - работает!!! Заработала непонятно как - после долговременной пропайки в области схемы питания с поднятием элементов для проверки (все были рабочие), продувки и прочистки PCI разъема резинкой, всё собрал, включил и ура, заработало-о-о! Правда горячеватая, в обычном многочасовом режиме работы компьютера 70 градусов, а при прогонке 3DMark06 (стандартный тест по умолчанию 10-20 минут) грелась до 78 гр. Хочу поменять термоткань на новую и поиграться с толщиной намазки термопасты на GPU...Спасибо всем, кто откликнулся!
Отправить комментарий