MaxStirner
Well-Known Member
- 2 781
- 4 723
Trochę w sumie nie rozumiem co w tym niezwykłego, crawling publicznych danych to na sto procent standard u nich, dziwne byłoby gdyby olewali dane które leżą na ulicy.
To nie jest żadna nowość. Już ponad 25 lat temu, kiedy w Polsce nie było sieci istniały programy do niszczenia komputerów. Przykładowo:
- Program do przeprogramowania chipsetu, którego użycie skutkowało odlutowaniem się pamięci RAM od modułu lub spaleniem pamięci. Jego działanie polegało na tym, że na magistrali pamięci występował konflikt danych w czasie, w którym procesor/chipset nic nie odczytywał/zapisywał. Konflikt danych polegał na tym, że dwie lub więcej kostek wyrzucały na magistralę dane, statystycznie konflikt (na jednym wyjściu jest stan wysoki, a na drugim niski) występował w 50%, co przy dużej ilości odczytów powodowało gwałtowne przegrzewanie.
Nie jestem ekspertem od dysków twardych ale całość danych "technicznych" czy tam konfiguracyjnych jest przechowywana na różnych RAM'ach i ROM'ach w układzie ,a nie na talerzach dysku... jednym słowem, zupełnie nie ma do nich dostępu z zewnątrz.- Programy do niszczenia twardych dysków. Takich programów było wiele. W obecnych twardych dyskach wystarczy nadpisać, niedostępny programowo (oficjalnie) sektor techniczny, by dysk był do wyrzucenia.
Z jakiej paki miało to napięcie tak podskoczyć? Jak niby to programowo miało być zrobione skoro to zasilanie samo z się brało się z elementów nie sterowalnych?- Program do podkręcania odchylania poziomego w monitorach podczas synchronizacji pionowej który powodował, że w monitorze napięcie z 16-25 kV (tak 25 tysięcy woltów - takie napięcie było w monitorach lampowych) podskakiwało do 40-50 kV. Jego użycie skutkowało spaleniem elementów monitora i trwałym uszkodzeniem. Uszkodzić się mogły płytki, bo duże napięcie powoduje przebicie. Na Śląsku gdzie w elektronice osadza się sadza, mogło to skutkować pożarem, nie tylko samego monitora. Taki program mógł działać, bo >99% monitorów brała wysokie napięcie z transformatora odchylania poziomego, dzięki czemu były tańsze.
Problem w tym, że z elementów sterowalnych. Wysokie napięcie w monitorach pochodziło z cewki odchylania poziomego. Im większa częstotliwość tym większe napięcie. Sterowanie było proste, bo wszystkie karty graficzne (do SVGA) wtedy miały rejestry zgodne z układem 6845, ze względu na kompatybilność i BIOS. Można to było uszkodzić, podczas podkręcenia częstotliwości w czasie gdy plamka przechodziła z dołu na górę, bo wtedy nie był wyświetlany obraz. W starszych monitorach tzw. CGA/Hercules była jeszcze jedna możliwość. Można było nie dawać żadnego odchylania w tym czasie, podtrzymując sygnał synchronizacji w stanie wysokim, wtedy prąd cały czas płynął przez cewkę, która się przegrzewała do spalenia.Z jakiej paki miało to napięcie tak podskoczyć? Jak niby to programowo miało być zrobione skoro to zasilanie samo z się brało się z elementów nie sterowalnych?
Każdy talerz dysku ma uszkodzone obszary oraz wolne miejsca zapasowe do przeniesienia danych, gdy inne obszary zaczną z jakichś powodów padać. Dla każdego talerza są to inne obszary, co wynika z technologii produkcji talerzy dyskowych. Gdyby dane o tych obszarach były zapisane w pamięci na płytce kontrolera, to nie było by możliwości odzyskania danych użytkownika dysku, w przypadku uszkodzenia elektroniki. Dlatego te dane są zapisywane zawsze na talerzu dysku.Nie jestem ekspertem od dysków twardych ale całość danych "technicznych" czy tam konfiguracyjnych jest przechowywana na różnych RAM'ach i ROM'ach w układzie ,a nie na talerzach dysku... jednym słowem, zupełnie nie ma do nich dostępu z zewnątrz
Mylisz się. To są układy CMOS, które muszą z dużą częstotliwością (jakie są częstotliwości pracy pamięci?) dokonywać przeładowania pojemności magistrali i mieć na tyle mocny sygnał, by przydusić zakłócenia i odbicia.To jest w ogóle technicznie możliwe?! Nie jestem eksperem ale nawet zakładając ,że magistrala jakakolwiek działa na zasadzie wystawiania przez układ stricte napięcia dodatniego i zwierania do masy to wydajność prądowa takich układów jest strasznie mała.
Przy napięciu zasilania pamięci 3.3V i częstotliwości pracy 66MHz, można było je spokojnie uwalać. Kostki pamięci tak się nagrzewały, że odpadały od płytki (odlutowywały się, temperatura > 240℃) ale rzadko padały. Wiem coś na ten temat, bo dawno, dawno temu, byłem współwłaścielem firmy Logix zajmującej się pamięciami. Między innymi projektowałem płytki PCB do modułów SIMM/DIMM i byłem od technicznych rzeczy.Dajmy te TTL owskie 5V i nie sądzę ,że więcej niż 50mA wydajności prądowej to jest 0,25W ... śmieszna moc... przy takim pseudo zwarciu nic się nie stanie.
W pamięciach DRAM na wejścio-wyjściach nie było nigdy OC, zawsze tam były tranzystory MOS.Pominę ,że wydaje mi się ,że większość magistrali polega na zwieraniu ich do masy przez układy z otwartym kolektorem ,więc taka sytuacja senso stricte nie występuje...
Ok rozumiem w ,którym momencie miało następować to "przepięcie" ,ale znaczy to ,że:Problem w tym, że z elementów sterowalnych. Wysokie napięcie w monitorach pochodziło z cewki odchylania poziomego. Im większa częstotliwość tym większe napięcie. Sterowanie było proste, bo wszystkie karty graficzne (do SVGA) wtedy miały rejestry zgodne z układem 6845, ze względu na kompatybilność i BIOS. Można to było uszkodzić, podczas podkręcenia częstotliwości w czasie gdy plamka przechodziła z dołu na górę, bo wtedy nie był wyświetlany obraz. W starszych monitorach tzw. CGA/Hercules była jeszcze jedna możliwość. Można było nie dawać żadnego odchylania w tym czasie, podtrzymując sygnał synchronizacji w stanie wysokim, wtedy prąd cały czas płynął przez cewkę, która się przegrzewała do spalenia.
No właśnie:Każdy talerz dysku ma uszkodzone obszary oraz wolne miejsca zapasowe do przeniesienia danych, gdy inne obszary zaczną z jakichś powodów padać. Dla każdego talerza są to inne obszary, co wynika z technologii produkcji talerzy dyskowych. Gdyby dane o tych obszarach były zapisane w pamięci na płytce kontrolera, to nie było by możliwości odzyskania danych użytkownika dysku, w przypadku uszkodzenia elektroniki. Dlatego te dane są zapisywane zawsze na talerzu dysku.
Co to za różnica, zasada dla OC i OpenDrain jest taka sama... no chyba ,że to było coś w rodzaju push-pull ,ale to by było strasznie dziwne, bo odrazu śmierdzi niebezpieczeństwem w razie konfliktu. Ponadto noty katalogowe dla DRAM nawet do 150MHz mówią o prądach max ,rzędu 50mA... jeśli dochodziło by do takich zwarć jak mówisz to układy nie rozlutowywały by się a padały jak muchy. Znalazłem w internetach ,że stosuje się coś takiego jak pseudodren ale i tak nie ma tam możliwości zwarcia przez różne pull up'y.Mylisz się. To są układy CMOS, które muszą z dużą częstotliwością (jakie są częstotliwości pracy pamięci?) dokonywać przeładowania pojemności magistrali i mieć na tyle mocny sygnał, by przydusić zakłócenia i odbicia.
Przy napięciu zasilania pamięci 3.3V i częstotliwości pracy 66MHz, można było je spokojnie uwalać. Kostki pamięci tak się nagrzewały, że odpadały od płytki (odlutowywały się, temperatura > 240℃) ale rzadko padały. Wiem coś na ten temat, bo dawno, dawno temu, byłem współwłaścielem firmy Logix zajmującej się pamięciami. Między innymi projektowałem płytki PCB do modułów SIMM/DIMM i byłem od technicznych rzeczy.
W pamięciach DRAM na wejścio-wyjściach nie było nigdy OC, zawsze tam były tranzystory MOS.
Nie miał takich, które uniemożliwiłyby atak. To było rozwiązane tak samo jak w telewizorach kineskopowych. Ostatnio produkowane monitory miały mikroprocesor, OSD i rozwiązania na przekaźnikach, by przełączać pomiędzy różnymi częstotliwościami/rozdzielczościami. Ale jak się je podkręcało to okazywało się, że też da się je uwalić, choć nie tak prosto jak te stare.B) Sterownik cewek odchylania nie miał by wbudowanych ograniczeń częstotliwościowych (bardzo mało prawdopodobne).
To nie jest OC czy Open Drain, to jest tak samo jak wyjście bramki CMOS.Co to za różnica, zasada dla OC i OpenDrain jest taka sama
Nie patrz na prąd poboru mocy w katalogu. Jak wyjścia będą bardziej obciążone, to pamięć będzie brała więcej - tyle ile będzie potrzeba. Wystarczą przeciążenia po 10-20mA na każdym wejściu/wyjściu danych (8 lub 16). Chipy pamięci jak nie mają radiatorów, to nie mają możliwości odprowadzania ciepła. W obecnych pamięciach nastąpi prędzej pęknięcie plastiku, czy wystrzał chipu niż odlutowanie.Ponadto noty katalogowe dla DRAM nawet do 150MHz mówią o prądach max ,rzędu 50mA...
Functions of this modified firmware remain unknown, but malware on the computer obtains the ability to write and read data to/from the dedicated hard drive area. We assume that this area becomes completely hidden from an operating system and even special forensic software. The data in this area may survive hard drive reformatting, plus firmware is theoretically able to reinfect hard drive’s boot area, infecting a newly installed operating system from the very beginning.
No bez jaj. Nie podrabia, bo sama je produkuje, pod własną marką. Przejęła onegdaj dział laptopów od IBM, a ostatnio dział telefonów komórkowych od Google.Lenovo to ta chińska firma która podrabia smartfony z antenkami?
Też mam takie podejście.Ja też kupiłem laptopa Lenovo, ale ja kupiłem bez systemu (z tego co patrzyłem, to oszczędza się około 250zł). Kupując laptopa z systemem należy zrobić format od razu (nie orientuję się, ale chyba jest to zgodne z licencją, nie?). Nie dość, że mogą szpiegować to jeszcze wielu producentów instaluje jakieś syfne programy, które tylko zamulają kompa (bloatware).