Nie potrafie zrozumiec tego.
// Szukanie najwiekszej i najmniejszej wartosci tablicy
int min=tablica[0];
Czemu to nie oznacza "Przypisz zmiennej typu int o nazwie min pierwsza wartosc z tablicy tablica.
Jak to usune to nie nie wyswietla minimalnej wartosci w tablicy.
#include <stdio.h>
//tablice jednowymiarowe i for
// Dana jest tablica n liczb rzeczywistych.
// Wczytac rozmiar tablicy nie wiekszy niz 20
// oraz wczytac jej elementy
// Wyswietlic tablice
// Znalezc najwieksza i najmniejsza wartosc
int main() {
int wielkosc;
int i;
// Deklarowanie wielkosci tablicy.
printf("Podaj wielkosc tablicy: ");
scanf("%d",&wielkosc);
int tablica[wielkosc];
// Wpisywanie do tablicy liczb.
for(i=0;i<wielkosc;i++) {
printf("Podaj liczbe dla tablica[%d]: ",i);
scanf("%d",&tablica[i]);
}
// Wyswietlanie wartosci tablicy.
printf("\n");
for(i=0;i<wielkosc;i++) {
printf("Tablica o nazwie tablica[%d]=%d\n",i,tablica[i]);
}
// Szukanie najwiekszej i najmniejszej wartosci tablicy
int min=tablica[0];
int max=tablica[0];
for(int i = 0; i<wielkosc; ++i){
if(tablica[i]<min)min=tablica[i];
if(tablica[i]>max)max=tablica[i];
}
printf("Minimalna wartosc w tablicy=%d\n",min);
printf("Maksymalna wartosc w tablicy=%d\n",max);
return 0;
}