<< |  >>
#6013 Dodano: 20-05-2012 13:20. Głosów: -104
“Pamiętaj cholero, nie dziel przez zero!”. Chyba każdy słyszał tę regułę. Niechciane dzielenie przez zero przynosi jedynki uczniom i nie pozwala spać programistom i matematykom. Dlaczego (i czy w ogóle) ta operacja jest źródłem strasznych błędów i paradoksalnych wyników?

I czy można powiedzieć że dzielenie przez zero daje nam nieskończoność? Tak przynajmniej twierdzi mój telefon.

Wypróbujmy to w praktyce. Potrzebny będzie nam do tego tort, nóż i zero talerzyków. Spróbujmy podzielić ciasto między wszystkie talerzyki, tak aby na każdym była ta sama ilość tortu. W tym przypadku to rzeczywiście nie ma sensu – po prostu nie można podzielić naszego smakołyku na “nic”. Jednak można do tego problemu podejść inaczej. Zastanówmy się, na ile kawałków o rozmiarze zero możemy podzielić nasz tort. W praktyce będziemy wiecznie wycinać z tortu dokładnie NIC, więc będziemy to powtarzać w nieskończoność, zanim go zjemy. Dzięki temu zgadza nam się wzór – dzieląc przez zero, możemy uzyskać nieskończoność. Jednak to działanie również nie ma sensu – zmarnuje nam się pyszny tort.

Dlaczego więc komputer nie jest w stanie podzielić przez zero? Wystarczy zrozumieć, w jaki sposób komputer wykonuje dzielenie – robi to identycznie, jak my. Zgaduje sobie jakiś wynik i sprawdza, czy jest on poprawny. Załóżmy jednak, że da się dzielić przez zero i że wynikiem jest nieskończoność. Komputer nie może odgadnąć sobie nieskończoności, a już na pewno nie jest w stanie pomnożyć jej przez inną liczbę w celu sprawdzenia wyniku. Musiałby mieć nieskończoną pamięć. Ponieważ nieograniczona pamięć komputera jest ciągle jedynie przedmiotem żartów informatyków, dzielenia przez zero trzeba unikać.

Czy można więc dzielić przez zero? Jak widzimy na przykładzie z tortem, takie działanie może mieć uzasadnienie. Jeśli jednak jesteśmy do tego zmuszeni, najprawdopodobniej coś nam nie wyszło na poprzednim etapie obliczeń.
<< |  >>