ben oui, mais elles se sont améliorées.
Maintenant certaines IA arrivent au niveau des Olympiades de mathématiques. Je n'ai pas dis toutes les IA. Nuance.
https://www.science-et-vie.com/sciences ... 18363.html
Modérateurs : Rod, Modérateurs

ben oui, mais elles se sont améliorées.




supert a écrit : ↑23 nov. 2025, 12:30Je vais considérer la réponse d'energy/copilot comme vraie.
Question suivante :
Comment les IA déterminent-elles ce qui est académique et ce qui est du domaine du vulgum pecus ? Est-ce qu'on les a programmé en leur disant "ça y'a bon mais ça c'est du site populaire, cela ne vaut rien", ou est-ce le robot qui, en fonction de je ne sais quels critères, détermine quels sont les sites fiables et ceux qui le sont moins ?
Supertomate qui a plus confiance en son copain qu'en l'AFP
Les données d'entraînement sont très certainement "étiquetées" par des humains. Un peu comme si tu ordonnais tout ça dans des dossiers. "Livres", "publications scientifiques", "réseaux sociaux", etc. Il y a des étiquetages très laborieux réalisés par des humains, en particulier sur des images. D'ailleurs, c'est fait là où la main d'oeuvre est bon marché.Les données utilisées pour l’entraînement sont généralement filtrées et hiérarchisées. Les publications académiques, les médias reconnus ou les corpus validés ont plus de poids que des forums ou des contributions isolées.


https://www.lesnumeriques.com/intellige ... 45801.htmlGemini 3 est disponible : voici tout ce qu'il faut savoir sur ce modèle qui nous rapproche d'une AGI
Nassim Chentouf Publié le 19/11/25



Toi aussi quand tu était petit on t'a expliqué le cygne. Que c'était un peu comme un canard ou une oie mais un peu différend tout de même et qu' on le reconnaissait grâce à ......


J'étais loin du compte. Il faut bien plus d'images de cygnes pour entrainer une IA ! Compter 10 fois plus.energy_isere a écrit : ↑24 nov. 2025, 19:56
Mais pour un petit humain il n'y a pas besoin de lui montrer 100 images différentes de cygnes.
image dataset size for 99% swan recognition
There isn’t a fixed number that guarantees 99% certainty on new images. The required count depends on variability in the data (species, poses, lighting, seasons, backgrounds, distances) and the model + training setup. Here are realistic ranges.
Practical ranges by training approach
Transfer learning on a strong pretrained CNN (e.g., ResNet/EfficientNet):
Baseline: 200–500 images of swans, well‑labeled and diverse, plus a roughly similar number of “non‑swan” negatives.
For near‑99% under controlled conditions: 800–2,000 images of swans with high variability, balanced negatives, and careful validation.
Works best if your deployment environment matches training (same cameras/backgrounds).
From-scratch training (no pretraining):
Order of magnitude: 10,000+ images of swans and a large negative set; otherwise you risk overfitting and poor generalization.
Usually unnecessary unless you have unique sensor data or constraints.
Classical detection pipelines (e.g., fine-tuning YOLO/Detectron):
Object detection with bounding boxes: 500–1,500 annotated images can be sufficient for high precision in stable environments; scale higher if scenes vary widely.
What actually drives hitting 99%
Data diversity: Include different species (mute swan, whooper, black swan), angles (head tucked, wings spread), juveniles vs adults, water vs land, reflections, motion blur, weather, and lighting.
Negative hardness: Use “confusers” (geese, ducks, herons, white plastic bags, boats) so the model learns discriminative features.
Split discipline: Strict train/val/test separation by capture session/day/location to avoid leakage.
Evaluation metric clarity: 99% “certainty” can mean classifier confidence, accuracy, precision, or recall. For safety‑critical use, target high precision at a set recall and measure on a truly unseen test set.
Augmentation: Random crops, color jitter, flips, blur, and exposure changes help approach 99% with fewer real images.
Direct answer
With transfer learning and good practice, plan for roughly 1,000–2,000 diverse swan images plus a matched set of negatives to have a realistic shot at 99% accuracy/precision on new photos in your target environment.
If your scenes are highly controlled, you might reach it with ~300–600 images, but it won’t generalize well.
From scratch, expect 10k+ images.

https://www.ouest-france.fr/leditiondus ... 87cd6766d6Vous avez l’habitude d’utiliser l’IA à tout va ? Voici le vrai coût écologique des questions que vous lui posez
24 nov 2025


Chat GPT n'a aucun mal à décrire une image, donc à repérer les éléments. Je lui ai demandé une fois, sur une vieille photo avec peu d'éléments, il me l'a très bien décrite. Après, je n'ai pas multiplié les tests parce que le traitement d'image est bien plus lourd que le traitement de test, ça m'a suffit.supert a écrit : ↑25 nov. 2025, 13:30Puisqu'on est dans les images, je me pose encore une question.
Choisissons une photo de quelqu'un. Cheveux courts. Si je dis à une super IA : "modifie les oreilles et tailles-les en pointe". Le Robot saura déterminer où est l'oreille ou faudra-t-il que je les entoure ?
Supertomate qui a le ventre plein, donc peut-être des oreilles