Maintenant il nous faut créer une nouvelle colonne qui permettra de regrouper les différentes pages aspirées..
Pour aspirer le contenu de chaque url ( c'est-à-dire stocker localement le contenu de chaque lien ) on utilisera la commande wget -O et nous les insérerons dans une nouvelle colonne :
#!/bin/bash
echo "Donnez le nom du fichier contenant les liens http : ";
read fic;
echo "Donnez le nom de fichier html où stocker ces liens : ";
read tablo;
echo $tablo ;
echo "<html><head><title>tableau de liens</title></head><body><table border=1>" > $tablo;
i=1
for nom in `cat $fic`
{
wget -O ../PAGES-ASPIREES/$i.html $nom
echo "<tr><td>$i</td><td><a href=\"$nom\">$nom</a></td><td><a href=\"../PAGES-ASPIREES/$i.html\">$i.html</a></td></tr>" >> $tablo;
let "i+=1" ;
}
echo "</table></body></html>" >> $tablo;
Aucun commentaire:
Enregistrer un commentaire