Les actions américaines

Bonjour,

Nvidia m'a permis d'encaisser une forte plus-value. Je vais atteindre autour de 10k€ au total avec d'autres lignes.

Petite question à ceux qui ont de belles plus-values réalisées en 2025 : à partir de quel montant de moins-value vous effectuez une vente puis achat pour diminuer le montant de PV de l'année en cours ?

Sachant que mes frais de courtage sont d'environ 18 € (donc X2 = 36 €).
 
Julien954 a dit:
Bonjour @Julien954

Julien954 a dit:
Nvidia m'a permis d'encaisser une forte plus-value. Je vais atteindre autour de 10k€ au total avec d'autres lignes.
Je suis dans la même situation.

Julien954 a dit:
Petite question à ceux qui ont de belles plus-values réalisées en 2025 : à partir de quel montant de moins-value vous effectuez une vente puis achat pour diminuer le montant de PV de l'année en cours ?
Pour moi, pas de niveau de MV à prendre en compte. Il faut juste que le montant de MV ne soit pas bouffé par le courtage sur l'aller/retour. Mais se casser la tête à vendre et acheter pour extérioriser quelques dizaines d'euros n'a pas beaucoup de sens.

Dans mon cas perso, j'avais une importante MV sur Chipotle, 2000€ de MV. J'ai vendu ma ligne. Ces 2000€ vont venir en déduction des 10 000€ de PV. Je vais donc économiser 600€ d'impôts.
Je recommence maintenant à reconstituer ma ligne Chipotle. Si, en plus, je peux le faire à un meilleur cours que lors de la vente, j'y suis gagnant.
J'ai une ligne Meta en baisse de 15% pour 400€ de MV, je vais la vendre tout à l'heure à l'ouverture du marché.
Mes autres lignes sont en trop faible MV (3 à 4% pas plus) ou trop petites.
 
Julien954 a dit:
Petite question à ceux qui ont de belles plus-values réalisées en 2025 : à partir de quel montant de moins-value vous effectuez une vente puis achat pour diminuer le montant de PV de l'année en cours ?
Je fais comme @poam5356

Sur Nvidia, j'ai pris 25% de ma forte PV pour "sécuriser" le gain sur un titre qui végète depuis un moment. Et cela compense le reste.
 
Jeune_padawan a dit:
Je fais comme @poam5356

Sur Nvidia, j'ai pris 25% de ma forte PV pour "sécuriser" le gain sur un titre qui végète depuis un moment. Et cela compense le reste.
Bonsoir Jeune_padawan,
Ca veut dire que tu crois à 75 % qu' elle va continuer a monter ?
 
TOM2 a dit:
Ca veut dire que tu crois à 75 % qu' elle va continuer a monter ?
Non.

Mais :
1) Le titre végète car fort valorisé : les résultats sont excellents le titre bouge à peine
2) Des alertes sonnent chez Oracle (voir le post de @poam5356 sur le CDS) et d'autres
3) Alphabet (Google) a lancé Gemini 3 via ses les TPU Ironwood. Donc les gros acteurs commencent à devenir moins dépendant à Nvidia. Google Cloud a été ajouté à la liste de fournisseurs de capacités par OpenAI.

Bref je prend ma PV ce qui au passage baisse mon seuil de rentabilité et donc même si le cours baisse cela est plus gérable en permettant de relativiser puisque j'ai pris ma part du gain.
 
Ok, merci
 
@Jeune_padawan dans le rôle du visionnaire, et je le rejoins : Faudra-t-il bientôt parler de TPU à la place des GPU et voir Google prendre le leadership de la course à l'IA ?
Tout va très vite, alors on n'est jamais sûr de rien, mais c'est la raison du rattrapage de Google qui talonne Nvidia en capi et gagne encore ce soir 1,3% à l'instant quand Nvidia perd 3,5%.
 
Merci à tous pour vos retours. J'ai la chance d'avoir aussi une belle ligne Google. A suivre 😀
 
Ah oui en effet... Je n'avais pas remarqué mais Google nous fait quand même +14% sur une semaine et +70% sur un an... Nvidia n'a qu'a bien se tenir... Ceci dit, je trouve ça plutôt bien qu'elle ne soit pas toute seule en tête... Même si ça serait quand même mieux qu'ils ne soient pas que 7...
 
Ils ne sont pas que 7 mais les médias ont cette fâcheuse habitude de toujours se focaliser sur les leaders d'un domaine.
Si on reprend le graphique que j'avais publié dans mon reporting, ci-dessous en fin de message, on découvre qu'il y a une quantité d'interactions entre de nombreuses sociétés. Dans le cas NVidia, architecte central de la course à l'IA, on voit 3 grosses dépendances croisées avec NVidia en plaque tournante du système... C'est le développement circulaire de l'IA, avec tous les risques que cela comporte.
OpenAI est sans doute le maillon faible du système, avec 1400Md$ d'engagements sur 8 ans pour tout juste 13Mds$ de CA cette année. C'est pas gagné. Or, AMD et surtout Oracle sont directement dépendants d'OpenAI.
Si OpenAi trébuche, ça risque de mal se passer pour les 2 autres, et à tout le système par contagion.

Là vient maintenant les bousculer, Google avec son propre moteur Gemini, en lien avec Broadcom pour les TPU (au lieu des GPU de NVidia).
Le dernier Gemini devenu plus puissant que le meilleur de ChatGPT.
Mauvaise nouvelle pour OpenAI, mais bonne pour l'investisseur avec un élargissement de l’écosystème AI à de nouveaux acteurs non liés à OpenAI.

IA-en-circuit-court.gif
 
Tu as raison, elles ne sont pas que 7. Mais quand on regarde le Nasdaq 100 :
NVidia : 4 321 Md
Apple : 4 093 Md
Google (Alphabet) 3 904 Md
Microsoft : 3 545 Md
Amazon : 2 455 Md
Broadcom : 1 818 Md
Facebook (Meta) : 1 604 Md
Tesla : 1 395 Md
Et après on passe à Netflix avec, seulement, 442 Md de capitalisation...

Donc bon, les 8 (et non 7 premiers) ont quand même un poids monumental.

Histoire de comparer :
Si on prend à partir du 9 ème, il faut la sommes des 16 suivants (donc la somme du 9ème au 25ème) pour avoir le poids de NVidia...
 
niklos a dit:
Donc bon, les 8 (et non 7 premiers) ont quand même un poids monumental.
Monumental, certes, mais c'est un non coté qui fait peser le plus de risques sur l'ensemble du système.
Comme en 2000, s'il tombe, il y aura des répercussions sur tous. Mais à part peut-être Oracle, les autres ont les moyens de faire face et repartiront de plus belle quand le marché aura été assaini.
 
On est d'accord. On peut espérer que le non côté en question soit racheté par les gros (et il me semble qu'ils y investissent déjà pas mal !)
 
poam5356 a dit:
Faudra-t-il bientôt parler de TPU à la place des GPU et voir Google prendre le leadership de la course à l'IA ?
Théorique les TPU (Tensor Processing Unit - unités de traitement tensoriel) sont spécifiquement conçus pour l'IA alors que les GPU (Graphics Processing Unit - unités de traitement graphique ou processeur graphique) sont crées à l'origine pour le traitement graphique.

Historiquement l'IA utilise des GPU car ils sont conçus pour faire des traitement parallèle pour les fameux polygones d'image dans la vidéo. Or l'IA fonctionne avec des calculs parallèles.
C'est la très connu architecture CUDA qui a fait passer les GPU du jeux vidéos aux calculs complexes comme l'analyse des données.

On est donc sur un outil à l'origine crée pour la vidéo et qui a été reconfiguré pour l'IA.


Alors que les TPU eux sont dès le départ conçus pour l'IA, on parle d'ailleurs d'ASIC (Application-Specific Integrated Circuit - circuit intégré propre à une application). Certes ils sont moins puissant que les GPU mais sont orientés opérations tensorielles (objet mathématiques utilisé dans l'analyse vectorielle pour simplifier).

Pour les matheux un scalaire est un tenseur d'ordre zéro (ou de rang zéro). Un vecteur est un tenseur unidimensionnel (ou d'ordre 1) et une matrice est un tenseur bidimensionnel (ou d'ordre 2)

L'IA a besoin d'apprendre et de réfléchir. Et c'est là la beauté du système car les TPU permettent de séparer les taches. Au lieu de tout miser sur le GPU on sépare les opérations comme ceci :

- Opérations d'inférence ("Réfléchir") -> TPU car ce sont des calculs matricielles et plus rapides que les GPU
- Entraînement de modèles d'apprentissage ("Apprendre") -> GPU car ce sont quantités astronomiques d'informations à traiter et à paralléliser.


Le seul hic des TPU est qu'ils sont très spécialisés et moins flexible que les GPU. Mais les 2 sont complémentaires avec le reste de la famille CPU (donne les ordres) et autres réseaux haute vitesse (aiguillage).
 
Jeune_padawan a dit:
Le seul hic des TPU est qu'ils sont très spécialisés et moins flexible que les GPU. Mais les 2 sont complémentaires avec le reste de la famille CPU (donne les ordres) et autres réseaux haute vitesse (aiguillage).
Je m'incline devant la richesse de l'exposé développé tout en clarté. J'ai appris des choses sur les GPU et les TPU. C'est fort intéressant et ça nous change des PER et autres indicateurs auxquels nous faisons référence quand on parle des actions.
Merci Maître @Jeune_padawan
 
Bonjour, vous savez si ASML fabrique les machines qui permettent à Alphabet de produire les TPU ? Je cherche l'info mais je ne trouve rien de concluant.
 
A priori indirectement oui, en fournissant TSMC qui fabrique les TPU conçus par google.
 
fvl a dit:
A priori indirectement oui, en fournissant TSMC qui fabrique les TPU conçus par google.
Les machines d'ASML permettent des gravures très fines, 1 à 2nm. C'est indispensable pour arriver à coller des milliards de transistors dans une puce de quelques cm². Et c'est donc indispensable pour l'IA qui est une énorme malaxeuse de données.
Après, que ce soit pour NVidia et ses GPU, ou Broadcom (et non pas TSMC), pour fabriquer les TPU... No problem pour ASML.
 
On s'ennuie quand la bourse US est fermée... Pioù...... +0,04 sur le Cac.... mais Allo quoi ! :geek:
 
J'ai pas compris la léthargie du jour jusqu'à 18h... ah oui... Thanksgiving...
 
Retour
Haut