Posiadaczy iPodów pierwszej i drugiej generacji na pewno ucieszy pewna wskazówka, opublikowana przez jednego z użytkowników iPoda, a mówiąca w jaki sposób przedłużyć życie baterii nawet do 22 godzin!
Autor kupił iPoda pod koniec 2001 roku i używał go niemal codziennie. Przez ten czas bateria straciła sporo ze swojej żywotności, bo wytrzymywała co najwyżej 2 do 3 godziny. Oryginalnie miała wytrzymywać od 8 do 10 godzin nieustannej pracy.
Przed wyrzuceniem starej baterii nasz bohater postanowił zaktualizować firmware swojego iPoda, czyszcząc dodatkowo zawartość całego dysku twardego. Zdziwiony efektem operacji zauważył, że bateria odzyskała swoją oryginalną żywotność, czyli nagle uzyskała ponad 300% przyrost czasu pracy :] Po załadowaniu kilku piosenek, sprytne urządzenie pracowało dokładnie 8 godzin i 30 minut.
Kiedy menadżer do spraw iPodów w Apple Computer został zapytany dlaczego się tak dzieje, odpowiedział że pojawiały się pogłoski na ten temat lecz nikt tego nie sprawdził w firmie.
Kompletny artykuł na temat przedłużania życia wszelkich baterii litowych można przeczytać na stronie BatteryUniversity.com. Natomiast na łamach serwisu Wired, można się zapoznać z artykułem na temat przedłużania życia baterii iPodów, artykuł nosi nazwę 'Pumping Up the Power of the iPod'.
niech zgadne: urzadzenie ma wbudowany zegar ktory z czasem zaniza wydajnosc baterii 🙂 aby uzytkownik zabulil za nowa 🙂 ale po twardym resecie zapomina o tym i odlicza od nowa 🙂
to tak jak z windowsami : bazujac na zegarze systemowym zabieraja coraz wiecej cpu aby user kupil nowe, rzekomo szybsze 🙂
(dla tych co chca teraz na mnie nabluzgac: nie bierzcie tego na powaznie 🙂
zastanawia mnie co ma reset do przedluzenia zywotnosci baterii. Jakis przekret chyba…:P
czym wiecej danych to wiecej potrzeba energi do jej odswierzania:))) Zartuje
No niestety Sobrus wydaje siê ¿e masz racjê :))))
@sobrus
ja równie¿ do podobnych wniosków dochodzê
Fizyczna ¿ywotno¶æ akumulatora prawdopodobnie siê nie zmienia natomiast po wgraniu nowego softu zmieni³y siê sposób zarz±dzania pamiêci± i dostêpn± ze ¼róde³ energi± lub ew. sposób ³adowania akumulatora.
W akumulatorach zachodz± nieodwracalne i postêpuj±ce w czasie procesy fizyko – chemiczne. Nie s±dzê wiêc by nast±pi³o "cudowne odrodzenie" ¿róde³ energii tylko – lepsze jej wykorzystanie…
@JaHo
No z tym to sie zgodze
na razie gdybamy, a jak to wyja¶niaj± w ww artykule??
'Pumping Up the Power of the iPod’.
mój english jest zbyt cienki 🙁
moze kto¶ siê pokusi o translacje 🙂 ??
Jaho, my o tym wiemy.
Pytanie tylko ile% to wp³yw starzenia siê baterii a ile % to to o czy,m pisa³ Sobrus.
@JaHo
Wed³ug mnie oprócz samodzielnego starzenia siê baterii iPoda kto¶ jej jeszcze w tym pomaga, bo procesy chemiczne zachodz±ce w tego typu bateriach s± powolne
to raczej nie zasluga nowego firmware. gdyby tak bylo to apple cos by o tym wiedzialo (chyba ze sa poinformowani tak jak tepsa ktora wszedzie mowi co innego) . poza tym kiedy zwykly uzytkownik zrobi twardy reset? raczej nigdy chyba ze wlasnie wymiena baterie (no patrzcie jaki przyrost mocy po zakupie nowej baterii 🙂 ! ) .
jest sposob aby sie przekonac: porownac czasy dzialania fabrycznie nowej i "zuzytej" baterii PRZED i PO upgrade firmware. jezeli to firmware jest takie genialne to czasy powinny w kazdym przypadku bardzo sie roznic.
Serwis stwierdzi³, ¿e bateria w notebook’u jest ju¿ zu¿yta. I faktycznie nie ³adowa³a siê i pr±du z siebie nie dawa³a. Jakie¿ by³o moje zdziwienie jak po aktualizacji biosu na nowy bateria odzyska³a kondycjê i chodzi od ponad roku jak nowa.
slowem jak zmienie bios w moim desktopie to bedzie szybciej dzialal? Ludzie co ma zmiana biosu do zywotnosci baterii? Lepsze zarzadzanie energia to fakt ale zaby z trupa nagle zrobic cos nowego to nie tylko bios nie wystarczy ale i armia magikow. Skoro bateria stracila pojemnosc to jak mozna ja zregenrowac poprzez wgranie nowego biosu? wyjasnijcie mi to bo chybajestem ciemny ale dla mnie to magia …
@Lesli
w artykule nie ma nic ciekawego, same superlatywy na temat baterii pewnej firmy itp. Wyglada jak fajna kryptoreklama z cyklu "kup a zycie stanie sie piekniejsze i bedziesz uzywal Ipoda az do swego zgonu …"
@marek_haj
zastanawiamy sie wlasnie czy gdzies nie ma systemu umyslnie zanizajacego wydajnosc baterii po pewnym czasie (takie oprogramowanie moze byc np w biosie) . sadzac po komentarzu reklara to nie jest odosobniony przypadek. takie systemy bylyby na reke producentom akcesoriow. byc moze akumulatory montowane w np laptopach wystarczylyby np na 6 lat ale mozna zmusic uzytkownika by wymienil je po 2…
teoria raczej malo prawdopodobna ale nie widze (podobie jak ty) innego racjonalnego wyjasnienia a fakty mowia za siebie.
W cos takiego jak zwiekszenie zywtnosci baterii bo zmianie biosu uwierzylbymgdyby bios odpowiedzialny byl na przyklad za sposob ladowania baterii (na przyklad prad ladowania, czy czas trwaina impulsu). Jezeli bios za to nie odpowiada (a z doswiadczenia wiadomo ze to raczej sprawka samej aldowarki i masy elektroniki w niej siedzacej, opartej pewine na ukladach LM…:=)) to jak moze zmiana biosu wplynac na stan baterii, poza zmniejszeinem samego poboru pradu poprzez bardziej oszczedna gospodarke? A wiara w istnienie "systemu umyslnie zanizajacego wydajnosc baterii po pewnym czasie" to prawie to samo co wiara w UFO, sa ludzie ktorzy w to wierza i zyja i sa szczesliwi. Wydaje mi sie ze oprogramowanie jednak mozna przejrzec (kod zrodlowy, nawet w postaci kody maszynowego jak ktos sie uprze) i stwierdzic czy takowe "systemy" sie tam znajduja.
Cala ta sprawa przypomina nieco nagonke na WIN95 po pierwszym jego wypuscie na ryynek. Pojawili sie wtedy plotki ze system przestaje poprawnie funkcjonowac po tygodniu od zainstalowania gdyz ma wbudowany licznik czasu dzialania i po tygodniu zaczyna z coraz wieksza czestotliwoscia sie zawieszac. Jakos po dzis dzien nikt nie byl w stanie potwierdzic tej plotki, nawet programisci ktorzy mieli to rzekomo wprowasdzic do kodu a odeszli z M$ wskutek redukcji etatow. Slowem – osobiscie watpie w istnienie takich mechanizmow – firma za duzo by ryzykowala w przypadku wykrycia takich "dodatkow systemowych" (dobre imie firmy, popularnosc – tych spraw nie mierzy sie cena pary tysiecy baterii rocznie)
tez mi sie tak wydaje ale z drugiej strony watpie w cudowne firmware, i to nie tylko w ipodach. czyzby programisci potrzebowali tyle czasu na cos takiego? poza tym apple napisaloby "update – better energy management" czy cos takiego, a tymczasem nic o tym nie wiedza.
czekam na taki update biosu do mojego komputera. wtedy wrzuce mu zasilacz 100W i 0 wiatraczkow…
ciezko bedzie …. ze 100 W zasilic P4, dysk twardy, plyte glowna, graficzna, i jeszcze jakis palnik DVD. Oj ciezko chyba ze nagle procek przestanie pobierac tyle energii.
swoja droga czytalem ostatnio artykul o energooszczednych mikroprocesorach, cos na podobienstwo technologii Centrino Intela lecz opracowanej juz jakis czas temu przez jedna z malo znanych firm, zastanawiam sie czasem czy przypadkiem Intle nie zwedzil tego pomyslu …
Swoja droga jak tak dalej pojdzie to niedlugo do dobrego kompa trzeba bedzie miec zasilacz 1 kW z ukladem wodnym bo najnowsze P4 to juz istne piecyki – ciekawe kiedy gestosc energii cieplnej przekroczy prog wytrzymalosci krzemu. Juz teraz taki malutki fragmencik krzemu rozprasza dobrze ponad 70 W, Prescoty jeszcze wiecej, a wersje E ponad 100 🙂 Nic tylko herbate gotowac, jeszcze pozytek bedzie. "Jasiu, wlacz komputer bo mama musi herbate zrobic dla taty :-)".
Sadze ze rozwizaniem problemow z nadmiernym poborem mocy przez coraz szybsze procesory moze byc zastsowowaniem procesorow wielordzeniowych, gdzie kazdy redzen pracuje na mniej szej czestotliwosci, przez co pobierane jest mniej pradu i mniej sie wszytko grzeje. Swoja droga, jeszcze do niedawna mialem PIII na 450 MHz i doskonale chodzila bez wiatraczka, spory radiator i luz. Na stronie Intela tez ostatnio sie pojawiaja informacje o tym ze maja zamiar odejsc od architektury P4 na rzecz PIII., bo ponoc ma lepsze parametry termiczne i nadaje ise lepiej do zwielokrotniania ilosci rdzeni przy znikomym wzroscie poboru mocy. Ano zobaczymy co z tego wyjdzie, ….
tez slyszalem o odejsciu od P4 i nie dziwie sie. PIII to (mniej wiecej) techniczny odpowiednik athlona i oba te procki wyprzedzaja P4 przy tej samej czestotliwosci zegara. mysle ze intel celowo uproscil architekture aby przekroczyc bariere 1Ghz (pIII 1.2Ghz bylo ponoc niestabilne). amd tez mialo z tym problemy stad grzejace sie thunderbirdy i palomino. ale teraz technologia poszla naprzod (mamy athlony ponad 2ghz…moj dziala stabilnie na 2,33 i sie nie grzeje przy boxowym coolerku) wiec mozna powrocic do pIII…
jesli do tego dodac ze p4 ostatnio strasznie sie grzeje, musi nadrabiac duzymi ilosciami cache (drogie!!!) i instrukcjami przetwarzania wektorowego (niedlugo chyba bedzie SSE4turboII) …
ja z AMD mialem ktorka przygote, ugotowal mi sie trzy razy z rzedu Duron i jakos nie mam serca znow probowac. Wszystkie przez kopieniata plyte glowna, a w serwisie twierdzili ze to wina mojego instalowania, wiec w koncu dalem im zainstalowac hihi -efekt ten sam. Doszedlem iz problemem jest bledne napiecie zasilania, bios podawal poprawne napiecie zasilania ale cos sie powalilo z ukladem zasilania, efekt … ugotowany procek.
dla mnie ciekawym rozwiazaniem sa procesory wektorowe oraz sygnalowe, zastanawiam sie dlaczego nikt nie poszedl w kierunku optymalizacji procesorow sygtnalowych, taki TI przy czestotliwosci 750 MHz ma wydajnosc ponad 7 razy wieksza niz P4 przy zegarze 3.6 GHz, wszystko za sprawa optymalizacji potokow danych, lepszym zarzadzaniu pamiecia podreczna, optymalizacji rozkazow itp.
Z tego co ostatnio czytalem na temat planowanych projektow Intela i AMD wyglada na to ze nastepna kolejka "walki" to beda procesory dwu i wielordzeniowe, potem pewnie cztero, itp. w koncu dojdzie do tego ze bedziemy mieli od cholery rdzeni, procesor wielkosic plyty glownej kosztujacy kosmiczne pieniadze …
Jak dla mnie nonsens. Dlaczego nie probowac wykorzystac nowych architektur komputerow: wspolna pamiec cache o wielkoscipare MB, 4 procesory o niesjiej czestotliwosci plus jeden procesor nadrzedny rozdzielajacy zadania … byc moze dlatego iz pomysl powstal nie w Hameryce ale w Rosji.
Na jednej z rosyjskich stron czytalem o takim wlasnie uladzie wykonanym nie w zadnej kosmiczne technologii 65 nm, lecz starej dobrzej 135 nm, scalajacycm 4 procki wektorowe plus jeden procesor nadrzedny, ktorego zadaniem jest jedynie rozdzielanie potokow danych pomiedzy poszczegolne procesory. Uklad dzialal przy czestotliwosci 450 MHz i skutecznoscia bil na leb wszystko P4 i AMD razem wziete. tanio, skutecznie i co najwazniejsze malo ciepla. ciekawe dlaczego nikt nie pojdzie w tym kierunku. Wyglada obiecujaco …
architektura x86 to jedna wielka lipa. robia juz co moga aby to ratowac. pecety powinny juz dawno biegac na alpha albo powerpc tak jak mace i amigi.
ale sila pieniazkow intela i kompatybilnosc z 386 robia swoje…
kiedys czytalem o prototypie amigi3000+ ktory byl za drogi aby wejsc do produkcji seryjnej. miala wbudowany datatkowy kilkudziesiecio megahercowy DSP AT&T i wyprzedzala kilkukrotnie (a moze i wiecej) zwykla A3000. potem obcieli DSP i SCSI i wypuscili toto jako srednio udana A4000…
moja starenka konsolka (dreamcast) ma RISC procesorek SH4@200Mhz. ALU na poziomie P200 (360MIPS) ale FPU… 1.4GFlopa. i to bez zadnego wiatraczka.
a na moim strychu lezy 150Mhz DEC Alpha (p³yta+procek).. nie mam reszty sprzetu (VLB!) ani winnt ale ciekaw jestem jak to by dzialalo….:)
dokladnie – sila kasy bo nic innego. Kazdy malo rozgarniety czlowiek, ktory conieco wie na temat komputerow i architektury mikroprocesorow wie doskonale o tym co piszesz. x86 sie dawno juz przezyla i tylko cala ta skorupa w postaci firmy Intel, AMD i kilku pomniejszych probuje pchac ten wozek dalej i dalej, wmawiajac ludziom iz warto placic 500$ za nowy procek, ktory da im 1-3% wzrost predkosci. Moje zabawy w wymiane sprzetu skonczylem na P4 2.4 GHZ i styk. Dla Worda, kompresji filmow i audio wystarczy, dokupie kiedys RAMu do 2GB i bedzie az pod sufit jak dla mnie. A nowe prociki, nich kupuja maniacy gier. Dla mnie zbytek.
Co do nowych architektur, to powaznie powinni sie nad nimi zastanaowic ale jak to zawsze w zyciu bywa, zanim sie cos nowego przebije to moze i pol wieku minac. Kompatybilnos c w dol z 386 jest juz jak najbardziej nie nareke bo tylko ogranicza nowe konstrukcje, moze w koncu czas sie od tego odciac do diaska. W koncu kto jeszcze uzywa 386 albo bedzie probowal odpalac win xp na tym procku. Nowe oprogramowanie i tak ni e jest z nim zgodne wiec w czym problem.
Swoja droga widzialem tez projekty procesorow wyposazonych w wielopotokowe FPU z optymalizacja kolejek wejsciowych, czyli procek w efekcie jest w stanie wykonywac na przyklad 16 operacji zmiennoprzecinkowych w czasie jednego taktu. Po co wtedy kilka GHz, wystarczy srednie 450 – 600 MHz i mozna spokojnie przeganiac wszystkie P4 i Athlony, a FPU kosztuje o wiele mniej od pamieci cache, mniejsze czestotliwosci itp. No ale procek wtedy juz nie kosztuje 600$ za sztuke i mniejszy zarobke dlafirmy …