전체 글 35

DHC 학술 세미나

생성적 AI의 현황과 임상적용 2023.05.26 정규환 교수 (성균관대학교 삼성융합의과학원) ※ image GAN -> diffusion model 이미지 Foundation model (기초 모델) - GPT도 언어 모델에 있어 기초이듯이 이미지에도 기초 모델이 있음 1. Segment Anything + 추가로 Segment everything everywhere all at once. 발표됨 2. CLIP (contrastive language-image pre-training) - 이 모델과 같이 앞으로는 multi-modal 방향으로 갈 것! 3. DALL-E 2 4. diffusion.. 등 ※ text 입력 -> BERT(분류, 해석) -> GPT(생성) -> 출력 위와 같은 파이프라인에서..

카테고리 없음 2023.06.16

When and how should multiple imputation be used for handling missing data in randomized clinical trials – a practical guide with flowcharts

When and how should multiple imputation be used for handling missing data in randomised clinical trials – a practical guide wi Background Missing data may seriously compromise inferences from randomised clinical trials, especially if missing data are not handled appropriately. The potential bias due to missing data depends on the mechanism causing the data to be missing, and the a bmcmedresmetho..

micro average F1-score와 accuracy가 같은 이유

※ Multi-class에서 micro-avg recall = micro-avg f1 = accuracy인 이유 우선 multi class에서는 ‘한 class의 FN = 다른 class의 FP’이다. (한 클래스의 TP ≠ 다른 클래스의 TN) 이런 이유로 분모가 TP로 같은 precision과 recall은 분모도 동일해지고, f1score도 같아진다. 참고링크1, 참고링크2 그렇다면 각 class의 TP ≠ TN인데 accuracy는 왜 같은가? Micro-avg 구하는 수식은 오른쪽 그림에 따라 아래와 같이 세울 수 있다. 그리고 위 식은 accuracy 식과 같으므로 micro-avg recall=micro-avg f1=accuracy가 된다. (acc식에서 TP, TN은 binary class..

Data science/AI 2023.06.16

SHAP (SHapley Additive exPlanations)

Shapley value 더보기 - Shapley value : 게임이론을 바탕으로 하나의 특성에 대한 중요도를 알기 위해 여러 특성들의 조합을 구성하고 해당 특성의 유무에 따른 평균적인 변화를 통해 얻어낸 값 (모든 가능한 조합에 대해서 하나의 특성의 기여도를 종합적으로 합한 값) - 1953년에 shapley가 쓴 논문에서 처음 언급되었고, 이 방법은 총 지불금(payout)에 각 선수들(players)의 기여도에 따라 선수의 지불금을 정의하는 것이다. - 여기서 ‘게임’은 하나의 인스턴스(관측치)에 대한 예측 /하나의 인스턴스(관측치)=모든 특성들을 가지고 예측한 한번의 epoch?? - ‘이득(gain)=기여도?’은 모든 데이터로부터 얻은 평균 예측값에서 하나의 관측치로부터 얻은 예측값을 뺀 값 ..

Data science/AI 2023.06.16

공부해야 될 모델 리스트

▶ NLP (LSTM) transformer BERT GPT ▶ Vision AI Visual Trnasformer (ViT) ViT : paper, 블로그 MAE (masked auto encoder) pre-trained ViT : 블로그 Image GPT Generative model Diffusion GAN Foundation model segment anything (잘 정리된 블로그) - task : prompt 기반 모델 - model : image encoder(MAE pre-trained ViT), prompt encoder(sparse, dense), mask decoder - data : 데이터 엔진. 이외에.. Object Detection - R-CNN, Fast R-CNN, Fa..

Data science/AI 2023.06.16

An interpretable classifier for high-resolution breast cancer screening images utilizing weakly supervised localization [GMIC]

paper An interpretable classifier for high-resolution breast cancer screening images utilizing weakly supervised localization Medical images differ from natural images in significantly higher resolutions and smaller regions of interest. Because of these differences, neural ne… www.sciencedirect.com code GitHub - nyukat/GMIC: An interpretable classifier for high-resolution breast cancer screening..

ImageNet-trained CNNs are biased towards Texture; Increasing shape bias improves accuracy and robustnes

ImageNet-trained CNNs are biased towards texture; increasing shape bias improves accuracy and robustness Convolutional Neural Networks (CNNs) are commonly thought to recognise objects by learning increasingly complex representations of object shapes. Some recent studies suggest a more important role of image textures. We here put these conflicting hypotheses arxiv.org Figure 2: Accuracies and ex..