Pixel classification with QuPath (epithelium and stroma segmentation with H&E images)

  Рет қаралды 9,140

Thierry Pécot

Thierry Pécot

Күн бұрын

Пікірлер: 26
@thierrypecot8747
@thierrypecot8747 2 жыл бұрын
2:40 Annotations for creating a training image 6:02 Training image creation 8:30 Classes and first set of annotations for pixel classifier 11:30 Pixel classifier creation 20:03 Classification after more annotations were defined 25:44 Saving the pixel classifier 26:40 Applying pixel classifier to one image 29:57 Obtain the measurements 30:47 Applying pixel classifier to several images (batch processing) 35:12 Exporting measurements for several images
@erinsimonds1721
@erinsimonds1721 2 жыл бұрын
Thanks for this video, Thierry -- it was very clear and exactly what I needed.
@thierrypecot8747
@thierrypecot8747 2 жыл бұрын
Glad to see it's helpful!
@olehkashyn9699
@olehkashyn9699 Жыл бұрын
Thank you so much! You gave me super important information and now I can really understand all steps. You are awesome! Thank you!
@thierrypecot8747
@thierrypecot8747 Жыл бұрын
Glad to see it's helpful!
@W0031-r8b
@W0031-r8b Ай бұрын
Hi! Your video was very helpful, thank you for sharing it! I have a question: how can I calculate the percentage of the positive area without including the white background, so that the percentage is based only on the tissue area? I'm working with DAB-stained samples and need to exclude the white background from the total area calculation. Any tips would be greatly appreciated!
@thierrypecot8747
@thierrypecot8747 Ай бұрын
Hi! You can use the Ignore* class for background in which case background will not be taken into account for area measurement and you might get directly the percentage of positive area (not entirely sure), otherwise you can compute the ratio between the positive area and the sum of positive and negative area which will give you the percentage of positive area in the tissue only.
@jackt9535
@jackt9535 2 жыл бұрын
Bonjour! Merci pour ces cours très formateurs!! J'ai essayé d'imaginé de rédiger un script pour automatiser tout cela... Mais plusieurs obstacles: - les Régions sont à définir manuellement, ce qui écourte la liste de taches qu on peut automatiser via un script avant de devoir reprendre à la main. - les intensités de colorations calibrées dans un classificateur de pixels sont sujettes à une reproductibilité médiocre à cause des qualités variables d'une solide à l'autre. - Le CPU est utilisé au lieu d'une GPU = la durée des processus - in fine les ressources (énergie électrique) à mobiliser pour "faciliter" une analyse restent plus importantes que les bénéfices effectives.
@thierrypecot8747
@thierrypecot8747 2 жыл бұрын
Bonjour Jack ! Je vais essayer de répondre rapidement à ces quatre points : - une fois le classifieur entraîné, il suffit de l'appliquer à de nouvelles images pour directement extraire les régions d'intérêt. Il est possible de créer un script qui va appliquer un classifieur entraîné à une collection d'images définies dans un même projet. - si le marquage est trop différent entre les images, ça peut évidemment être un problème, je conseillerais dans ce cas de discuter avec la plateforme d'histo pour voir s'il est possible d'uniformiser les techniques de marquage afin de minimiser les différences entre lames. - il est vrai que seul le CPU est utilisé, toutefois le temps de traitement par lame une fois un classifieur entraîné ne prend pas sensiblement plus de temps que l'acquisition d'une lame, donc le pipeline reste tout à fait envisageable et clairement plus rapide qu'à l'oeil, surtout que les machines peuvent aussi travailler la nuit et le weekend. - le rapport ressources / bénéfices dépend évidemment de l'application. J'espère que ces quelques remarques seront utiles.
@moyofeyide7490
@moyofeyide7490 Жыл бұрын
Thanks for the video, it's been very helpful. If there's an instance where you've loaded a classifier onto an image and some parts are not annotated correctly, is it possible to correct this after loading the classifier? and would the classifier "learn" from the adjustment when loading it onto subsequent images?
@thierrypecot8747
@thierrypecot8747 Жыл бұрын
Hi, glad to see it's helpful! If you want to modify the classifier with a different image, it is possible to do it if you use the same project. When you go to Classify -> Object classification -> Train object classification, you open the window for the object classifier. In this window, you can click on Load training, which lets you choose which image(s) in your project you want to load your object classifier with. In that case, all the cells that were annotated in the image(s) you chose will be taken into account in your classifier, and you can add new annotations to keep training your classifier.
@moyofeyide7490
@moyofeyide7490 Жыл бұрын
@@thierrypecot8747 thanks for the quick reply. can this also be applied to pixel classification?
@thierrypecot8747
@thierrypecot8747 Жыл бұрын
@@moyofeyide7490 Yes, same thing
@Julie-ww2ki
@Julie-ww2ki 10 ай бұрын
Bonjour, merci pour ces informations qui sont très claires ! Y a t il une alternative pour calculer ce ratio épithélium/stroma sur des lames complètes d’HE ?
@thierrypecot8747
@thierrypecot8747 10 ай бұрын
Content de voir que c'est utile ! Il n'y a pas de méthode simple pour faire ce genre d'analyse, il serait possible d'entraîner un modèle de deep learning pour le faire, mais ce serait plus lourd. Cette méthode est probablement la plus accessible pour le faire.
@gorantomic6049
@gorantomic6049 2 жыл бұрын
Many thanks for the video, really helpful! Is it possible to manually correct misidentified annotations afterwards? If for example, there is one sample that is clearly different than the rest of the batch in H&E intensity and classifer performs poorly.
@thierrypecot8747
@thierrypecot8747 2 жыл бұрын
Hi Goran, glad to see this video is helpful! It is totally possible to correct annotations. If the results are not too far from what you would expect, you can just modify the annotated regions, otherwise you can remove the estimated annotations and define new ones. if you have several slides for which the staining makes the classifier fail, you can also train another classifier just for this batch. In any case, it's extremely important that you describe in the "Materials and Methods" section of the publication what you do, manual correction or training of several classifiers, and why you do it, for instance staining was different between batches of slides. Hope this will help!
@gorantomic6049
@gorantomic6049 2 жыл бұрын
@@thierrypecot8747 Great, thanks! Actually, training a different classifier is easier and more reliable than manually correcting everything. The tutorial really helped me out!
@thierrypecot8747
@thierrypecot8747 2 жыл бұрын
@@gorantomic6049 That's great, good luck for your research!
@clementtetaud4374
@clementtetaud4374 2 жыл бұрын
Bonjour, Je souhaite quantifier un ratio de surface marqué positivement. Je délimite ma région d’intérêt puis je délimite des zones positives et négatives et lorsque je clique sur live prediction dans le pixel classifier j'obtiens très souvent un "NaN" sur les pourcentages positif et négatif de ma ROI alors que je les obtiens sur mes autres annotations. Y a t-il quelque chose que j’oublie de faire ?
@thierrypecot8747
@thierrypecot8747 2 жыл бұрын
Bonjour Clément, Il est possible que le mode live ne soit pas suffisant. Le mieux quand on quantifie des surfaces est d'entraîner un classifieur, de le sauver puis de l'appliquer aux régions d'intérêt. Dans ce cas, les mesures doivent s'effectuer normalement. J'espère que ce sera utile.
@clementtetaud4374
@clementtetaud4374 2 жыл бұрын
@@thierrypecot8747 Bonjour, merci pour cette réponse. J'utilise ce logiciel depuis seulement 1 semaine et n'ayant que vos vidéos pour comprendre son fonctionnement je ne comprend pas encore très bien comment l'utiliser. Quand vous dites "entraîner un classifieur", il ne s'agit pas de sélectionner différentes zones pour avoir des annotations négatives et positives ? On peut obtenir les pourcentages sans utiliser le live prediction ? Est-il possible de discuter avec vous par mail, téléphone ou Teams ? Car j'aurais plusieurs questions a vous poser sur le logiciel. Merci d'avance
@thierrypecot8747
@thierrypecot8747 2 жыл бұрын
@@clementtetaud4374 Bonjour Clément, Je suis en vacances, je suis désolé, je n'ai pas pu répondre plus rapidement. Entraîner un classifieur revient à annoter des régions pour les différentes classes à estimer, dans ce cas région positive et région négative. Cela se fait dans QuPath avec "Train pixel classifier", les régions annotées seront alors considérées pour entraîner un classifieur. Le "live prediction" permet de voir l'influence de l'ajout de nouvelles annotations. Une fois le classifieur entraîné, il est possible de le sauver pour pouvoir ensuite l'appliquer à d'autres images, ce qui permet d'obtenir les mesures souhaitées, dans ce cas le pourcentage de régions positives et négatives. J'ai créé ces vidéos dans le cadre d'une formation que je fais sur le campus à Rennes, ça permet aux personnes qui assistent à la formation de revoir les différentes étapes abordées pendant la formation. Je n'ai malheureusement pas le temps de faire du conseil en dehors des collaborations que j'ai dans le cadre de mon poste à Rennes 1, je ne pourrai donc pas prendre le temps de discuter par mail, téléphone ou Teams. Le mieux est de chercher autour des vous des experts en analyse d'images. Si vous êtes dans une université, il est fort probable qu'il y en ait. Sinon, d'autres vidéos sont disponibles. La documentation de QuPath (qupath.readthedocs.io/en/stable/) est également très bien faite. J'espère que cela vous aidera dans votre recherche.
@medanatomie7390
@medanatomie7390 2 жыл бұрын
Bonjour, sauriez-vous comment "exporter " un script de pixel annotation , pour utiliser ce même script mais dans un autre projet ? Par exemple dans votre video comment on pourrait exporter le script de la protate vers un autre projet qupathsur des epitheliums d'intestin par exemple?
@thierrypecot8747
@thierrypecot8747 2 жыл бұрын
Bonjour ! Évidemment, il serait possible d'ajouter les nouvelles images au même projet pour appliquer le classifieur. Il est aussi possible de récupérer le classifieur dans un autre projet. Dans ce cas, il faut aller dans le répertoire du projet dans lequel le classifieur a été créé, puis naviguer dans "classifiers/pixel_classifiers/", copier le fichier json avec le nom du classifieur (epistroma.json si le classifieur a été enregistré come epistroma), et aller le coller dans le répertoire "classifiers/pixel_classifiers/" du nouveau projet. Si ce répertoire n'existe pas, il faut le créer, et normalement il sera possible d'utiliser "load pixel classifier" et de voir le classifieur pour l'appliquer aux nouvelles images. J'espère que ce sera utile !
@chloelahaie7203
@chloelahaie7203 2 жыл бұрын
@@thierrypecot8747 je vous remercie!
Introduction to QuPath for Multiplexed Fluorescence Microscopy
35:07
Bioimage Informatics Facility
Рет қаралды 20 М.
It’s all not real
00:15
V.A. show / Магика
Рет қаралды 10 МЛН
Интересно, какой он был в молодости
01:00
БЕЗУМНЫЙ СПОРТ
Рет қаралды 3,3 МЛН
Project creation and annotations with QuPath
17:40
Thierry Pécot
Рет қаралды 1,4 М.
Labeling images using QuPath for semantic segmentation
10:45
DigitalSreeni
Рет қаралды 13 М.
AI Assisted Image Segmentation and 3D Analysis using Avizo and Ilastik
1:47:29
KAUST Visualization Core Lab
Рет қаралды 1 М.
Pixel classification with QuPath
12:03
Laura Nicolas-Saenz
Рет қаралды 1 М.
Visualization of fluorescence images with QuPath
10:37
Thierry Pécot
Рет қаралды 4,3 М.
Running a complex project in QuPath 0.3.2
56:40
Zbigniew Mikulski
Рет қаралды 11 М.
Increase REALISM of 3D images with Magnific AI
9:08
Nuno Silva
Рет қаралды 56 М.
It’s all not real
00:15
V.A. show / Магика
Рет қаралды 10 МЛН