Mnożenie i dodawanie

K

krystkon.

Guest
Elementarne działania matematyczne przedstawiane też jako koniunkcja i alternatywa.
Wiecie skąd to i po co?

Mam taką teorię wśród tysiąca innych, iż koniunkcja jest związkiem czynników zbioru a alternatywa związkiem jego elementów.

Zastanawialiście się kiedyś na związkami czynników i elementów lub inaczej nad związkami właściwości/cech i związkami części/składników?

Sprzedam wam wiedzę tajemną :).
Czynnik zbioru jest tożsamy z całką funkcji a element zbioru z pochodną funkcji.
Wiedzieliście o tym?
 

kompowiec

freetard
2 568
2 622
czy aby na pewno wybrałeś odpowiednie do tego miejsce? Czy po prostu zbanowali cie już wszędzie i musiałeś nas uraczyć tematem niezwiązanych z tematyką forum?
 
OP
OP
K

krystkon.

Guest
czy aby na pewno wybrałeś odpowiednie do tego miejsce? Czy po prostu zbanowali cie już wszędzie i musiałeś nas uraczyć tematem niezwiązanych z tematyką forum?
Hyde Park - czaisz bazę?
Potrafisz dotrzymać zasad, które sam stanowisz?
 
Ostatnio edytowane przez moderatora:

mikioli

Well-Known Member
2 770
5 377
Elementarne działania matematyczne przedstawiane też jako koniunkcja i alternatywa.
Wiecie skąd to i po co?

Mam taką teorię wśród tysiąca innych, iż koniunkcja jest związkiem czynników zbioru a alternatywa związkiem jego elementów.

Zastanawialiście się kiedyś na związkami czynników i elementów lub inaczej nad związkami właściwości/cech i związkami części/składników?

Sprzedam wam wiedzę tajemną :).
Czynnik zbioru jest tożsamy z całką funkcji a element zbioru z pochodną funkcji.
Wiedzieliście o tym?
Łoł... jak możesz mieć teorię w sprawie sformalizowanych aksjomatów automatyki i ich pochodnych? Do czego dążysz krystianie. Qui Bono? Co nam to daje?
 
OP
OP
K

krystkon.

Guest
Łoł... jak możesz mieć teorię w sprawie sformalizowanych aksjomatów automatyki i ich pochodnych? Do czego dążysz krystianie. Qui Bono? Co nam to daje?
Skoro już o automatyce, czy dostrzegasz matematyczna doskonałość naszej rzeczywistości? Gdzież w niej miejsce na przypadek?
Przypadek to zdarzenie bez przyczyny, wierzysz w zdarzenia bez przyczyny? Toż to cud.

A skoro ciąg przyczyn i konsekwencji jest nieprzerwany rozumiesz chyba, że istnieje tylko jeden scenariusz zdarzeń?
A wówczas mowa o przeznaczeniu nabiera sensu.

Gesendet von meinem SM-G935F mit Tapatalk
 

mikioli

Well-Known Member
2 770
5 377
Skoro już o automatyce, czy dostrzegasz matematyczna doskonałość naszej rzeczywistości? Gdzież w niej miejsce na przypadek?
Przypadek to zdarzenie bez przyczyny, wierzysz w zdarzenia bez przyczyny? Toż to cud.

A skoro ciąg przyczyn i konsekwencji jest nieprzerwany rozumiesz chyba, że istnieje tylko jeden scenariusz zdarzeń?
A wówczas mowa o przeznaczeniu nabiera sensu.

Gesendet von meinem SM-G935F mit Tapatalk
Odlatujesz krystian. BTW nie widzę matematycznej doskonałości. Fizyka Newtonowska i jej równania są dobre dla pewnego przedziału mas i prędkości, w mikro świecie "obowiązuje" fizyka kwantowa, w sprawach mega prędkości i mas, więc dla zjawisk kosmicznych opis stanowi fizyka relatywistyczna... Dążenie ludzi do opisania świata uniwersalnymi równaniami ( XIX w podjął tę próbę i próbował podciągnąć wszystko pod równania Lorentza), po prostu okazało się na razie fikcją. Zresztą właśnie dla fizyki poza newtonowskiej prawdopodobieństwo, a więc właśnie ludzka próba wtłoczenia przypadku w ramy nauki, gra ogromną rolę...

Do tego jako inż, powiem ci że mnogość zjawisk które pomija się przy rozważaniach inżynierskich jest tak ogromna, że dopiero wtedy człowiek uświadamia sobie miałkość modeli które ludzkość stworzyła.
 
OP
OP
K

krystkon.

Guest
Ja czy moderatorzy? I więcej niż pewne, wyleci do historii z dupy wziętych.
Wierzysz, że te zasady mają sens?
Bo jeśli nie mają to po co to robić?
Po co nazywać coś Hyde Parkiem kiedy wcale tym nie jest?

Gesendet von meinem SM-G935F mit Tapatalk
 
OP
OP
K

krystkon.

Guest
Odlatujesz krystian. BTW nie widzę matematycznej doskonałości. Fizyka Newtonowska i jej równania są dobre dla pewnego przedziału mas i prędkości, w mikro świecie "obowiązuje" fizyka kwantowa, w sprawach mega prędkości i mas, więc dla zjawisk kosmicznych opis stanowi fizyka relatywistyczna... Dążenie ludzi do opisania świata uniwersalnymi równaniami ( XIX w podjął tę próbę i próbował podciągnąć wszystko pod równania Lorentza), po prostu okazało się na razie fikcją. Zresztą właśnie dla fizyki poza newtonowskiej prawdopodobieństwo, a więc właśnie ludzka próba wtłoczenia przypadku w ramy nauki, gra ogromną rolę...

Do tego jako inż, powiem ci że mnogość zjawisk które pomija się przy rozważaniach inżynierskich jest tak ogromna, że dopiero wtedy człowiek uświadamia sobie miałkość modeli które ludzkość stworzyła.
Przypuscmy, że kierujesz samochodem na drodze. Wąska, kręta droga ale jedzie Ci się dobrze. Zwiekszmy teraz prędkość tego samochodu na tej drodze do 200km/h. Czy nadal nim kierujesz? Panujesz nad nim? Utrzymasz się na drodze?

Dokładnie tak samo panujemy nad matematycznym opisem rzeczywistości. Dopóki operujemy w wymiarze naszego ciała opisy są skończone i poprawne, kiedy wykraczamy poza nasz wymiar wszystko wymyka się spod kontroli.

Czy wiesz, że obserwacja jest oddziaływaniem ciał? Kiedy probujesz obserwować gołym okiem coś małego albo coś wielkiego to od stanu Twojego oka zależy co zobaczysz.

Zdajesz sobie sprawę, że od kto stanie za mikroskopem zależy to co pod nim ujrzy? Że spojrzenie jest oddziaływaniem? Że od tego co jest za monitorem zależy to, co zarejestruje detektor bowiem stan detektora splatany jest że stanem monitora poprzez oddziaływania w sieci bramek logicznych?

Nie ma przypadków jest brak pojęcia związany z niezdolnościa pojęcia.

Gesendet von meinem SM-G935F mit Tapatalk
 

FatBantha

sprzedawca niszowych etosów
Członek Załogi
8 902
25 737

By chopping up large numbers into smaller ones, researchers have rewritten a fundamental mathematical speed limit.

  • Kevin Hartnett
Four thousand years ago, the Babylonians invented multiplication. Now, mathematicians have perfected it.
On March 18, 2019, two researchers described the fastest method ever discovered for multiplying two very large numbers. The paper marks the culmination of a long-running search to find the most efficient procedure for performing one of the most basic operations in math.
“Everybody thinks basically that the method you learn in school is the best one, but in fact it’s an active area of research,” said Joris van der Hoeven, a mathematician at the French National Center for Scientific Research and one of the co-authors.
The complexity of many computational problems, from calculating new digits of pi to finding large prime numbers, boils down to the speed of multiplication. Van der Hoeven describes their result as setting a kind of mathematical speed limit for how fast many other kinds of problems can be solved.
“In physics you have important constants like the speed of light which allow you to describe all kinds of phenomena,” van der Hoeven said. “If you want to know how fast computers can solve certain mathematical problems, then integer multiplication pops up as some kind of basic building brick with respect to which you can express those kinds of speeds.”
Most everyone learns to multiply the same way. We stack two numbers, multiply every digit in the bottom number by every digit in the top number, and do addition at the end. If you’re multiplying two two-digit numbers, you end up performing four smaller multiplications to produce a final product.
The grade school or “carrying” method requires about n2 steps, where n is the number of digits of each of the numbers you’re multiplying. So three-digit numbers require nine multiplications, while 100-digit numbers require 10,000 multiplications.
The carrying method works well for numbers with just a few digits, but it bogs down when we’re multiplying numbers with millions or billions of digits (which is what computers do to accurately calculate pi or as part of the worldwide search for large primes). To multiply two numbers with 1 billion digits requires 1 billion squared, or 1018, multiplications, which would take a modern computer roughly 30 years.
For millennia it was widely assumed that there was no faster way to multiply. Then in 1960, the 23-year-old Russian mathematician Anatoly Karatsuba took a seminar led by Andrey Kolmogorov, one of the great mathematicians of the 20th century. Kolmogorov asserted that there was no general procedure for doing multiplication that required fewer than n2 steps. Karatsuba thought there was — and after a week of searching, he found it.
Karatsuba’s method involves breaking up the digits of a number and recombining them in a novel way that allows you to substitute a small number of additions and subtractions for a large number of multiplications. The method saves time because addition takes only 2n steps, as opposed to n2 steps.
KaratsubaMethod_560-1065x1720.jpg

Credit: Lucy Reading-Ikkanda / Quanta Magazine.
“With addition, you do it a year earlier in school because it’s much easier, you can do it in linear time, almost as fast as reading the numbers from right to left,” said Martin Fürer, a mathematician at Pennsylvania State University who in 2007 created what was at the time the fastest multiplication algorithm.
When dealing with large numbers, you can repeat the Karatsuba procedure, splitting the original number into almost as many parts as it has digits. And with each splitting, you replace multiplications that require many steps to compute with additions and subtractions that require far fewer.
“You can turn some of the multiplications into additions, and the idea is additions will be faster for computers,” said David Harvey, a mathematician at the University of New South Wales and a co-author on the new paper.
Karatsuba’s method made it possible to multiply numbers using only n1.58 single-digit multiplications. Then in 1971 Arnold Schönhage and Volker Strassen published a method capable of multiplying large numbers in n × log n × log(log n) multiplicative steps, where log n is the logarithm of n. For two 1-billion-digit numbers, Karatsuba’s method would require about 165 trillion additional steps.
Schönhage and Strassen’s method, which is how computers multiply huge numbers, had two other important long-term consequences. First, it introduced the use of a technique from the field of signal processing called a fast Fourier transform. The technique has been the basis for every fast multiplication algorithm since.
Second, in that same paper Schönhage and Strassen conjectured that there should be an even faster algorithm than the one they found — a method that needs only n × log n single-digit operations — and that such an algorithm would be the fastest possible. Their conjecture was based on a hunch that an operation as fundamental as multiplication must have a limit more elegant than n × log n × log(log n).
“It was kind of a general consensus that multiplication is such an important basic operation that, just from an aesthetic point of view, such an important operation requires a nice complexity bound,” Fürer said. “From general experience the mathematics of basic things at the end always turns out to be elegant.”
Schönhage and Strassen’s ungainly n × log n × log(log n) method held on for 36 years. In 2007 Fürer beat it and the floodgates opened. Over the past decade, mathematicians have found successively faster multiplication algorithms, each of which has inched closer to n × log n, without quite reaching it. Then last month, Harvey and van der Hoeven got there.
Their method is a refinement of the major work that came before them. It splits up digits, uses an improved version of the fast Fourier transform, and takes advantage of other advances made over the past forty years. “We use [the fast Fourier transform] in a much more violent way, use it several times instead of a single time, and replace even more multiplications with additions and subtractions,” van der Hoeven said.
Harvey and van der Hoeven’s algorithm proves that multiplication can be done in n × log n steps. However, it doesn’t prove that there’s no faster way to do it. Establishing that this is the best possible approach is much more difficult. At the end of February, a team of computer scientists at Aarhus University posted a paper arguing that if another unproven conjecture is also true, this is indeed the fastest way multiplication can be done.
And while the new algorithm is important theoretically, in practice it won’t change much, since it’s only marginally better than the algorithms already being used. “The best we can hope for is we’re three times faster,” van der Hoeven said. “It won’t be spectacular.”
In addition, the design of computer hardware has changed. Two decades ago, computers performed addition much faster than multiplication. The speed gap between multiplication and addition has narrowed considerably over the past 20 years to the point where multiplication can be even faster than addition in some chip architectures. With some hardware, “you could actually do addition faster by telling the computer to do a multiplication problem, which is just insane,” Harvey said.
Hardware changes with the times, but best-in-class algorithms are eternal. Regardless of what computers look like in the future, Harvey and van der Hoeven’s algorithm will still be the most efficient way to multiply.
Kevin Hartnett is a senior writer at Quanta Magazine covering mathematics and computer science.
 
Do góry Bottom