Napisałem krótki program który liczy z twierdzenia Pitagorasa długość przeciwprostokątnej. Niby wszystko jest ok, ale wynik jest trochę dziwny.
#include <stdio.h>
#include <math.h>
int pitagoras (a,b)
{
float w = (a*a)+(b*b);
float c = sqrt(w);
}
int main (void)
{
float a,b,c;
printf ("Podaj dlugosc pierwszej przyprostokatnej ");
printf ("a=");
scanf ("%f",&a);
printf ("Podaj dlugosc drugiej przyprostokatnej ");
printf ("b=");
scanf ("%f",&b);
{
c = pitagoras (a,b);
printf ("%f",&c);
getch ();
return 0;
}
}
#include <stdio.h>
#include <math.h>
int pitagoras (a,b)
{
float w = (a*a)+(b*b);
float c = sqrt(w);
}
int main (void)
{
float a,b,c;
printf ("Podaj dlugosc pierwszej przyprostokatnej ");
printf ("a=");
scanf ("%f",&a);
printf ("Podaj dlugosc drugiej przyprostokatnej ");
printf ("b=");
scanf ("%f",&b);
{
c = pitagoras (a,b);
printf ("%f",&c);
getch ();
return 0;
}
}