Mam taki projekt do zrobienia:
1.Utworzyć tabelkę mnożenia z zakresu 0-1000.
2.Wyświetlić 10 wierszy i 10 kolumn
3.Wyznaczyć wartość średnią tablicy
Po pierwsze nie do końca rozumiem sens tych zadań,ale ja ich nie wymyślałem.Po drugie co oznacza wyznaczenie średniej wartości tablicy.A to moja nieudolna próba rozwiązania:
#include <stdio.h>
#include<stdlib.h>
int tab [1001][1001];
int main(void)
{
int i,j,w,k;
for(i=1;i<=1000;i++)
{
for(j=1;j<=1000;j++)
{
tab[i-1][j-1]=i*j;
}
}
for(w=1;w<=10;w++)
{
printf("%5c");
}
for(w=1;w<=10;w++)
{
printf("\n%4d",w,tab[w]);
for(k=1;k<=10;k++)
{
tab[w][k]=w*k;
printf("%4d",w*k,tab[w][k]);
}
}
printf("\n");
system("pause");
return 0;
}
Edytowałem kod,gdyż coś chyba pomyliłem i jak ktoś to nawet sprawdzał to wychodziły jakieś same ujemne duże cyfry,z początku wydawało się chodzi dobrze tzn.jeśli chodzi o wyświetlanie a potem visual cos zaczął odwalać albo ja coś poknociłem z wklejaniem.
Wiem pewnie powiecie,że proste ale miałem mało styczności z programowaniem.
P.S ta tablica chyba ma być w floatcie tj. float tab[1001][1001],ale gdy tak robiłem to się pierdzieliło wszystko.