Howwelldofinalyearundergraduatemedicalstudents ... · terpretation of a chest X-ray during the...

16
How well do final year undergraduate medical students master practical clinical skills? Abstract Introduction: The clinical examination and other practical clinical skills are fundamental to guide diagnosis and therapy. The teaching of such Sylvère Störmann 1 Melanie Stankiewicz 1 practical skills has gained significance through legislative changes and Patricia Raes 1 adjustments of the curricula of medical schools in Germany. We sought Christina Berchtold 1 to find out how well final year undergraduate medical students master practical clinical skills. Yvonne Kosanke 1 Methods: We conducted a formative 4-station objective structured clinical examination (OSCE) focused on practical clinical skills during Gabrielle Illes 1 Peter Loose 1 the final year of undergraduate medical education. Participation was voluntary. Besides the examination of heart, lungs, abdomen, vascular Matthias W. Angstwurm 1 system, lymphatic system as well as the neurological, endocrinological or orthopaedic examination we assessed other basic clinical skills (e.g. interpretation of an ECG, reading a chest X-ray). Participants filled-out a questionnaire prior to the exam, inter alia to give an estimate of their performance. 1 Klinikum der Universität München, Medizinische Klinik und Poliklinik IV, München, Germany Results: 214 final year students participated in our study and achieved a mean score of 72.8% of the total score obtainable. 9.3% of participants (n=20) scored insufficiently (<60%). We found no influence of sex, prior training in healthcare or place of study on performance. Only one third of the students correctly estimated their performance (35.3%), whereas 30.0% and 18.8% over-estimated their performance by 10% and 20% respectively. Discussion: Final year undergraduate medical students demonstrate considerable deficits performing practical clinical skills in the context of a formative assessment. Half of the students over-estimate their own performance. We recommend an institutionalised and frequent assess- ment of practical clinical skills during undergraduate medical education, especially in the final year. Keywords: practical examination, OSCE, physical examination, clinical skills 1. Introduction The basic clinical examination is a fundamental skill of physicians that facilitates diagnosis and therapy [1], [2], [3]. Technical progress has changed the practice of medicine, which increasingly relies on laboratory assess- ments, diagnostic imaging, and other sources of technical examination. Some authors mourn that this has led to a deterioration of the ability to perform a systematic and focused hands-on clinical examination [4], [5]. Medical students and young physicians alike demonstrate deficits in performing a clinical examination [6], [7]. A legislative reform in Germany in 2002 (Medical Licensure Act) pushed the faculties to develop new curricula with an emphasis on practical training [8], [9], [10], [11], [12], [13], [14]. By specifically defining the type and amount, this law formalised clinical practical teaching and its curricular design [15]. This lead to novel teaching con- cepts as well as whole curricula centred on medical skills [16], [17], [18], [19], [20]. An intensive training of prac- tical clinical skills during the first years of undergraduate medical education aims to prepare students well for their future role as physicians; the final year is an important landmark in undergraduate training and consists mainly of practical exercise of previously and newly acquired skills [21]. The Medical Curriculum (MeCuM) integrates clinical training into pre-clinical courses during year 2 of undergraduate studies, starting with history taking. Through a variety of diverse formats (lectures, bedside teaching, peer teaching, and blended learning) students learn the theoretical basis of the clinical examination and have the opportunity to put it into practice. Longitudinal internships in general medical practices and frequent bedside courses allow practical exercise and feedback discussions steer the learning. As students progress, further practical clinical skills are taught in the context of their respective system (such as writing and reading an ECG as part of the cardiovascular teaching block, in- 1/16 GMS Journal for Medical Education 2016, Vol. 33(4), ISSN 2366-5017 article This is the original (English) version. The translated (German) version starts at p. 9. OPEN ACCESS Clinical skills

Transcript of Howwelldofinalyearundergraduatemedicalstudents ... · terpretation of a chest X-ray during the...

Page 1: Howwelldofinalyearundergraduatemedicalstudents ... · terpretation of a chest X-ray during the respiratory teachingblock).Higher-levelskillssuchasclinicalde-cision-makingarepartoftheformationduringthefinal

How well do final year undergraduate medical studentsmaster practical clinical skills?

AbstractIntroduction: The clinical examination and other practical clinical skillsare fundamental to guide diagnosis and therapy. The teaching of such

Sylvère Störmann1

Melanie Stankiewicz1practical skills has gained significance through legislative changes andPatricia Raes1adjustments of the curricula of medical schools in Germany. We soughtChristina Berchtold1to find out how well final year undergraduate medical students master

practical clinical skills. Yvonne Kosanke1

Methods: We conducted a formative 4-station objective structuredclinical examination (OSCE) focused on practical clinical skills during Gabrielle Illes1

Peter Loose1the final year of undergraduate medical education. Participation wasvoluntary. Besides the examination of heart, lungs, abdomen, vascular Matthias W.

Angstwurm1system, lymphatic system as well as the neurological, endocrinologicalor orthopaedic examination we assessed other basic clinical skills (e.g.interpretation of an ECG, reading a chest X-ray). Participants filled-outa questionnaire prior to the exam, inter alia to give an estimate of theirperformance.

1 Klinikum der UniversitätMünchen, MedizinischeKlinik und Poliklinik IV,München, Germany

Results: 214 final year students participated in our study and achievedamean score of 72.8% of the total score obtainable. 9.3% of participants(n=20) scored insufficiently (<60%). We found no influence of sex, priortraining in healthcare or place of study on performance. Only one thirdof the students correctly estimated their performance (35.3%), whereas30.0% and 18.8% over-estimated their performance by 10% and 20%respectively.Discussion: Final year undergraduate medical students demonstrateconsiderable deficits performing practical clinical skills in the contextof a formative assessment. Half of the students over-estimate their ownperformance. We recommend an institutionalised and frequent assess-ment of practical clinical skills during undergraduatemedical education,especially in the final year.

Keywords: practical examination, OSCE, physical examination, clinicalskills

1. IntroductionThe basic clinical examination is a fundamental skill ofphysicians that facilitates diagnosis and therapy [1], [2],[3]. Technical progress has changed the practice ofmedicine, which increasingly relies on laboratory assess-ments, diagnostic imaging, and other sources of technicalexamination. Some authors mourn that this has led to adeterioration of the ability to perform a systematic andfocused hands-on clinical examination [4], [5]. Medicalstudents and young physicians alike demonstrate deficitsin performing a clinical examination [6], [7]. A legislativereform in Germany in 2002 (Medical Licensure Act)pushed the faculties to develop new curricula with anemphasis on practical training [8], [9], [10], [11], [12],[13], [14]. By specifically defining the type and amount,this law formalised clinical practical teaching and itscurricular design [15]. This lead to novel teaching con-cepts as well as whole curricula centred onmedical skills

[16], [17], [18], [19], [20]. An intensive training of prac-tical clinical skills during the first years of undergraduatemedical education aims to prepare students well for theirfuture role as physicians; the final year is an importantlandmark in undergraduate training and consists mainlyof practical exercise of previously and newly acquiredskills [21]. The Medical Curriculum (MeCuM) integratesclinical training into pre-clinical courses during year 2 ofundergraduate studies, starting with history taking.Through a variety of diverse formats (lectures, bedsideteaching, peer teaching, and blended learning) studentslearn the theoretical basis of the clinical examination andhave the opportunity to put it into practice. Longitudinalinternships in general medical practices and frequentbedside courses allow practical exercise and feedbackdiscussions steer the learning. As students progress,further practical clinical skills are taught in the contextof their respective system (such as writing and readingan ECG as part of the cardiovascular teaching block, in-

1/16GMS Journal for Medical Education 2016, Vol. 33(4), ISSN 2366-5017

articleThis is the original (English) version.

The translated (German) version starts at p. 9.OPEN ACCESSClinical skills

Page 2: Howwelldofinalyearundergraduatemedicalstudents ... · terpretation of a chest X-ray during the respiratory teachingblock).Higher-levelskillssuchasclinicalde-cision-makingarepartoftheformationduringthefinal

terpretation of a chest X-ray during the respiratoryteaching block). Higher-level skills such as clinical de-cision-making are part of the formation during the finalyear when students should be proficient in the practiceof basic clinical skills. However, a comparison of theperformance in the Licensure Examination before andafter the reform at bothmedical faculties in Munich (LMUund TU) showed a statistically significant decline of scoresin the oral and practical part of the exam [22]. Changesin medical curricula in Germany and their impact on theincrease inmedical knowledge during clinical training arewell studied [23], [24]; investigations of learned practicalskills and achievement of competence based learningobjectives are lacking. It is therefore unclear, how wellundergraduate medical students receiving training morefocused on clinical skills effectively master these skillsin their final year.Furthermore, the adequate self-assessment of perform-ance and therefore one’s own limitations play a crucialrole in the care for patients. Everyone involved in patientcare should seek help in case of overload [25]. It is im-portant for every (aspiring) physician to recognise limitsof one’s own abilities and to prevent harm through erro-neous action or even faulty omission. Danger lies in over-estimation (unconscious incompetence) as well as under-estimation (unconscious competence) of one’s abilities[26]. Multiple studies have shown that subjective self-assessment and objectively measured performance donot necessarily correlate [27], [28], [29]. Undergraduatemedical students have a responsibility towards their pa-tients as well as their teachers to estimate their skillsadequately in order to improve on deficits and furtherdevelop strengths. This holds especially true as thephysical examination acts as a cornerstone of diagnosis[2], [30]. Typically, final year medical students in Germanyare first to see admitted patients. Therefore, a realisticself-assessment of examination proficiency is vital for thepatients’ well-being and further course of hospital stay.We wanted to know how well undergraduate students inan advanced and critical part of their training could estim-ate their abilities to perform basic clinical skills.

2. MethodsUndergraduate medical students in their final year couldparticipate in a formative oral and practical examination(“mündlich-praktische Prüfung im PJ”, abbreviated: mP3)using the OSCE format (objective structured clinical exam-ination) from mid-2011 through 2014. The intent of thisexamination was to offer the participants the possibilityto objectively assess practical clinical skills and obtainindividual feedback as to identify strengths and weak-nesses. The examination consisted of four OSCE stations.The stations covered various aspects of the physical ex-amination: heart, lungs, abdomen, and vascular/lymph-atic system as well as neurological, endocrinological, andorthopaedic examination. Amongst others, the stationscovered basic clinical skills such as writing and reading

of a 12-lead ECG, basic interpretation of an abdominalCT scan, identifying normal and abnormal findings on achest X-ray, outlining the management of an emergencyin the ER, enumerate important laboratory parametersto aid differential diagnosis in specified clinical settings).Two thirds of each station is devoted to the physical ex-amination, the remaining third assesses other clinicalskills. Each instalment of the OSCE consisted of stationscompiled from a pool of 12 different OSCE stations. Anexpert panel designed and validated all stations. Parti-cipants performed the physical examination on probandsinstructed not to give any feedback during the examina-tion. Marks for specific steps of the physical examinationwere awarded only if that step was performed correctlyin its entirety. Each station lasted precisely 12 minutes.Afterwards, students obtained 3 minutes feedback fromthe examiner. All 19 examiners were faculty staff mem-bers with experience in examining OSCEs as well as pro-fessional experience as clinicians. Frequently held work-shops for faculty by our Institute for Didactics and Educa-tion Research ensure a high standard of quality in theimplantation of assessments such as the OSCE.Participants voluntarily filled-out a questionnaire referringto personal and demographic details, the course ofstudies, prior training in healthcare (e.g. as paramedic oras nurse) as well as the assumed mark achieved in theexamination (5 point scale as commonly used in Germanyfor school grading: exam mark 1 = “excellent” to 5 = “in-sufficient”). To allow for comparison of the self-assess-ment with the OSCE score (expressed as percentage oftotal achievable points), we converted the OSCE scoreinto the same 5 point scale according to a conversionscheme common in Germany and used in the NationalLicense Examinations [8]. Students received a notificationof their achieved score after the examination.All statistical analyses were performed using SPSS (IBMCorp., Armonk, NY, U.S.A.). For the difference betweentwo means, t-tests were used; in cases with multiplegroups, an analysis of variance was performed. Effectsizes were assessed using Cohen’s d. p values α=0.05were considered statistically significant.The operational sequence, purpose, and intention of sci-entific interpretation of the data of this practical examin-ation were announced to the local ethics committee,which deemed a formal ethical approval not necessary.The study was conducted according to principles of theWorld Medical Association’s Declaration of Helsinki andDeclaration of Geneva. All undergraduate medical stu-dents in their final year could participate. Participationwas voluntary and participants gave written consent tothe scientific analysis of the examination and publicationof results. Not consenting did not exclude students fromthe examination.

2/16GMS Journal for Medical Education 2016, Vol. 33(4), ISSN 2366-5017

Störmann et al.: How well do final year undergraduate medical students ...

Page 3: Howwelldofinalyearundergraduatemedicalstudents ... · terpretation of a chest X-ray during the respiratory teachingblock).Higher-levelskillssuchasclinicalde-cision-makingarepartoftheformationduringthefinal

3. ResultsStudy population

214 students participated in the study from mid-2011until the end of 2014. Median age of participants was26.3 (±4.5) years. Almost two thirds (64.0%; n=137) werefemale, thus corresponding to the gender distribution ofall undergraduate medical students at the LMU Munich.There was no significant age difference between femaleand male participants (m=27.5±3.2 years; f=27.1±5.1years; p=0.544). Most participants (n=156; 72.9%) hadpursued their medical studies at the LMU Munich fromthe beginning; the other participants had joined the LMUMunich at later stages of their undergraduate studies.

Total performance

On average participants achieved 72.8%±10.1% of themaximum total score (see Figure 1). After converting theperformance score into a 5 point scale only 3.7%achieved an examination mark of “1” (“excellent”;score=90%; n=8), 23.4% a mark of “2” (“good”; score80-90%; n=50), 34.6 amark of “3” (“fair”; score 70-80%;n=74), and 29.0% a mark of “4” (“poor”; score 60-70%;n=62). Twenty students (9.3%) had an “insufficient” score(defined as<60%; mark of “5”).

Confounding factors

Female participants had a tendency towards slightlyhigher scores; however, this difference was not significant(73.7%±10.1% versus 71.1%±9.9%; p=0.069). Therewere no significant differences in scores between parti-cipants who had studied at the LMU Munich from thebeginning vs. at later stages (p=0.349). A prior trainingin healthcare did not yield other scores than without priortraining (p=0.363). Scoreswere homogenously distributedamongst participants from 2011 until 2014 (p=0.881).The majority of participants stated not having preparedthemselves specifically for the exam (63.1%). Theyachieved significantly lower scores in comparison to pre-pared students (71.8%±9.3% vs. 78.6%±10,0%; p<0,001;d=0,27). For an overview of these results, cf. Table 1.

Self-assessment

170 participants (79.4%) gave an estimate of their per-formance in the examination. Self-assessed performanceand total examination score correlated positively andsignificantly (r=0.26; p<0.001). On average, studentsover-estimated their performance by half an examinationmark. 60 participants (35.3%) correctly assessed theirperformance. 51 students (30.0%) over-estimated theirperformance by one, 32 participants (18.8%) by twomarks. 21 students (12.4%) under-estimated their per-formance by one, 6 participants (3.5%) by two marks. Ofthe 20 participants with a total score below 60% (“insuf-ficient”) 16 had self-assessed their performance of which

13 (81.3%) were over-estimating. Confer to Figure 2 foran overview of self-assessment in relation to total score.

4. DiscussionPractical clinical skills such as the physical examinationremain an important instrument in the physician’sarmamentarium. Our analysis of a formative, oral-practicalexamination in undergraduate medical students in theirfinal year showed a lack of these skills despite the ad-vanced course of studies and immanent licensure. Ourparticipants had trouble performing a physical examina-tion as well as basic clinical procedures such as writingand reading an ECG. A comparable analysis in Americanstudents during the USMLE Step 2 Clinical Skills Examin-ation yielded similar results [31]. Recently Schmidmaieret al. used a progress test to show that knowledge of in-ternal medicine continuously increases at the LMU Mu-nich [24]. However, these results are not generalizableonto practical clinical skills [32].In Germany acquiring new and improving on existing skillsduring the final year of undergraduate medical studiesrelies heavily on the supervision and patronage of theward’s physicians where students spend their final year.In practice, supervision is lacking and the acquisition andimprovement of skills depends largely on chance and theindividual commitment of the students [33], [34], [35].A rather new approach is to follow the development ofclinical skills with a progress test longitudinally [36], [37],[38]; so far, published data are lacking.Learning practical clinical skills requires complex inter-ventions and a seamless interaction between all partiesinvolved (medical faculty, teaching hospitals, and otherhospitals/practices where students complete clinicaltraineeships). In reality, this is hardly controllable andstudents develop a large part of their “clinical practice”outside class [39]. Effectively this means that an import-ant part of medical training is beyond the grasp of univer-sity structures and therefore escapes institutional qualitystandards. So far, teaching of practical clinical skills atfaculty level focuses on the use of skills labs [40], [41]where peers mostly perform teaching (student tutors).Multiple studies have shown this concept to be effective[42], [43]. Structured formats improve practical clinicalskills acquired in the skills lab lastingly [44]. Anothermechanism is to perform intermittent formative examin-ations andmake use of the “assessment drives learning”effect [45]. In respect to the data presented herein, itseems important to perform formative examinations as-sessing clinical skills as measures of quality assuranceduring the final year of undergraduatemedical education[46]. Ideally, these examinations should be composed ofassessments of diverse skills and compiled from an ex-haustive catalogue [47]. In light of high costs of theseexamination formats [48], [49], faculties have to rethinkhow to find affordable solutions to improve the teachingof clinical skills, such as special tutorship programmes[50]. Important questions in this context are: Who profits

3/16GMS Journal for Medical Education 2016, Vol. 33(4), ISSN 2366-5017

Störmann et al.: How well do final year undergraduate medical students ...

Page 4: Howwelldofinalyearundergraduatemedicalstudents ... · terpretation of a chest X-ray during the respiratory teachingblock).Higher-levelskillssuchasclinicalde-cision-makingarepartoftheformationduringthefinal

Figure 1: Histogram of total score (4-station OSCEs)

Table 1: Possible confounding factors: comparison of total score between various sub-groups

Figure 2: Radar chart of total examination performance (expressed as exam mark) and average self-assessment (same scale)

from such formative examinations? How frequent shouldthey be? At what point in time during the course of med-ical studies should the first examination take place? Isthe OSCE the right format for such examinations? Thereare no answers to these questions derived from general-izable recommendations from the literature. To selectspecific students (and therefore to favour those) might

seem ethically ill advised. However, additional interven-tions have proven helpful in those students at risk of at-trition [51], [52]. From an economical stance, it could bejustified to limit additional resources to those studentsat risk. A possible compromise (albeit increasing admin-istrative overhead) could be to offer a certain minimumof such examinations to all students and to examine

4/16GMS Journal for Medical Education 2016, Vol. 33(4), ISSN 2366-5017

Störmann et al.: How well do final year undergraduate medical students ...

Page 5: Howwelldofinalyearundergraduatemedicalstudents ... · terpretation of a chest X-ray during the respiratory teachingblock).Higher-levelskillssuchasclinicalde-cision-makingarepartoftheformationduringthefinal

students at risk more frequently. How often and fromwhich year of undergraduate education on is unclear asdata is scarce [53]. We think that such examinationsshould begin early on to prevent giving feedback too late,i.e. when falsemanoeuvres have already become routine.Alternatives are other formats such as the Mini-CEX andothers (CEC, DOPS) that can take place directly at the“workplace”. As such, they offer interesting possibilitiesto assess clinical skills intermittently with comparativelylittle à priori effort [54], [55], [56]. Conversely, more effortis required to instruct and train examiners correctly forthese formats.One third of all students correctly self-assessed theirperformance. Almost half of our participants over-estim-ated their performance; nearly one in five to a vast de-gree. This is more than previously described [29], [57].The phenomenon is not new and neither limited to med-ical studies nor students per se [58], [59]. Our studentsreceived structured and qualitative feedback after theexanimation. Many students were surprised when theyrealized how off they were in their self-assessment. Con-sequences of over-estimation can be serious, in particularwhen it leads to diagnostic and/or therapeutic errors [60],[61], [62]. The ability to correctly self-evaluate is difficultto teach or train. It was postulated that video feedbackwould be sufficient to improve self-assessment [63]. Astudy by Hawkins and colleagues achieved improvementonly retrospectively when a video of the students’ perform-ance was juxtaposed a video demonstrating the correctmanoeuvres [64]. It is therefore important to give thestudents a good idea of their performance throughstructured feedback, but also to show the correct execu-tion of the skill assessed. Criticism must always be com-municated in a meaningful way and it has to be notedthat responsiveness to feedback is modulated by expect-ations and attitudes [65].We presented data from a formative and voluntary exam-ination, for which students had to register actively. Thismay have biased our results. One would expect eagerand especially motivated students to participate in anoptional examination leading to false-positive results. Inso far we deem our data and the conclusions derivedfrom them to be plausible. Our examination is well accep-ted and students use it to prepare themselves for the finalpart of the Licensure Examination, which also takes placeas an oral and practical exam. A strength of our data isthe size of the study population that allows for reliablestatements even when effect size is small.

5. ConclusionsThe performance of undergraduate medical students intheir final year during a formative oral and practical clin-ical examination leaves ample room for improvement.Almost two thirds of our participants scored “fairly” or“poorly”; one in ten students fails. Practically half of ourstudents over-estimated their own performance. An es-

tablished, standardized, formative examination duringthe final year of undergraduate studies seems vital.

AcknowledgementsWe thank our examiners and colleagues for their supportand all the efforts put into implementing the mP3 exam-ination: Prof. Dr. Ralf Schmidmaier, PD Dr. Peter Reilich,PD Dr. Stefan Grote, PD Dr. Peter Thaller, PD Dr. PhilippBaumann, Dr. Kathrin Schrödl, Dr. Philip von der Borch,Dr. Bert Urban, Dr. Michael Maier, Dr. Mark op denWinkel, Dr. Costanza Chiapponi, Anja Fischer, CarolineStrenkert, Andreas Sturm, and Christina Berr.

Competing interestsThe authors declare that they have no competing in-terests.

References1. Kirch W, Schafii C. Misdiagnosis at a university hospital in 4

medical eras. Medicine (Baltimore). 1996;75(1):29–40. DOI:10.1097/00005792-199601000-00004

2. Reilly BM. Physical examination in the care of medical inpatients:an observational study. Lancet. 2003;362(9390):1100–1105.DOI: 10.1016/S0140-6736(03)14464-9

3. Kugler J, Verghese A. The physical exam and other forms offiction. J Gen Intern Med. 2010;25(8):756–757. DOI:10.1007/s11606-010-1400-3

4. Feddock CA. The lost art of clinical skills. Am J Med.2007;120(4):374–378. DOI: 10.1016/j.amjmed.2007.01.023

5. Cook C. The lost art of the clinical examination: an overemphasison clinical special tests. J Man Manip Ther. 2010;18(1):3–4.DOI: 10.1179/106698110X12595770849362

6. Wilkerson L, Lee M. Assessing physical examination skills ofsenior medical students: knowing how versus knowing when.Acad Med. 2003;78(10 Suppl):S30–S32.

7. Ramani S, Ring BN, Lowe R, Hunter D. A pilot study assessingknowledge of clinical signs and physical examination skills inincoming medicine residents. J Grad Med Educ.2010;2(2):232–235. DOI: 10.4300/JGME-D-09-00107.1

8. Bundesministerium für Gesundheit. Approbationsordnung fürÄrzte. Berlin: Bundesministerium für Gesundheit; 2002.

9. Eitel F. Die neue Approbationsordnung verlangt tief greifendeÄnderungen in der Lehrorganisation. Gesundheitswesen (SupplMed Ausbild). 2002;19(Suppl1):1–2. Zugänglich unter/availablefrom: https://gesellschaft-medizinische-ausbildung.org/files/ZMA-Archiv/2002/1/Eitel_F-ae.pdf

10. Steiner T, Schmidt J, Bardenheuer H, Kirschfink M, Kadmon M,Schneider G, Seller H, Sonntag HG, für die HEICUMEDPlanungsgruppe. HEICUMED?: Heidelberger CurriculumMedicinale - Ein modularer Reformstudiengang zur Umsetzungder neuen Approbationsordnung. Gesundheitswesen (SupplMedAusbild). 2003;20(Suppl2):87–91. Zugänglich unter/availablefrom: https://gesellschaft-medizinische-ausbildung.org/files/ZMA-Archiv/2003/2/Steiner_T,_JC3%BCnger_J,_Schmidt_J,_Bardenheuer_H,_Kirschfink_M,_Kadmon_M,_Schneider_G,_Seller_H,_Sonntag_HG.pdf

5/16GMS Journal for Medical Education 2016, Vol. 33(4), ISSN 2366-5017

Störmann et al.: How well do final year undergraduate medical students ...

Page 6: Howwelldofinalyearundergraduatemedicalstudents ... · terpretation of a chest X-ray during the respiratory teachingblock).Higher-levelskillssuchasclinicalde-cision-makingarepartoftheformationduringthefinal

11. Schulze J, Drolshagen S, Nürnberger F, Ochsendorf F. Gestaltungdes klinischen Studiums nach den Vorgaben der neuen ÄrztlichenApprobationsordnung – Struktur und Organisation.Gesundheitswesen (Suppl Med Ausbild).2003;20(Suppl2):68–77. Zugänglich unter/available from:https://gesellschaft-medizinische-ausbildung.org/files/ZMA-Archiv/2003/2/Schulze_J,_Drolshagen_S,_N%C3%BCrnberger_F,_Ochsendorf_F.pdf

12. van den BusscheH. Lehren und Lernen amUKE - Die Umsetzungder Approbationsordnung für Ärzte in Hamburg. Z Allgemeinmed.2004;80:431–437. DOI: 10.1055/s-2004-820414

13. Huwendiek S, Kadmon M, Jünger J, Kirschfink M, Bosse HM,Resch F, Duelli R, Bardenhauer HJ, Sonntag HG, Steiner T.Umsetzung der deutschen Approbationsordnung 2002 immodularen Reformstudiengang Heidel- berger CurriculumMedicinale (HeiCuMed). ZfHE. 2008;3(3):17–27. Zugänglichunter/available from: http://www.zfhe.at/index.php/zfhe/article/view/70/75

14. Zeuner S, Henke T, Achilles E, Kampmeyer D, Schwanitz P. 36Different Ways To Study Medicine. GMS Z Med Ausbild.2010;27(2):Doc20. DOI: 10.3205/zma000657

15. Haage H. Das neue Medizinstudium. Aachen: Shaker Verlag;2003. S.320.

16. Fischer T, Simmenroth-Nayda A, Herrmann-Lingen C, Wetzel D,Chenot JF, Kleiber C, Staats H, Kochen MM. MedizinischeBasisfähigkeiten – ein Unterrichtskonzept im Rahmen der neuenApprobationsordnung. Z All Med. 2003;79:432–436. Zugänglichunter/available from: https://www.online-zfa.de/media/archive/2003/09/10.1055-s-2003-43063.pdf

17. Öchsner W, Forster J. Approbierte Ärzte - kompetente Ärzte? Dieneue Approbationsordnung für Ärzte als Grundlage fürkompetenzbasierte Curricula. GMS Z Med Ausbild.2005;22(1):Doc04. Zugänglich unter/available from: http://www.egms.de/static/de/journals/zma/2005-22/zma000004.shtml

18. Kulike K, Hilgers J, Störmann S, Hornung T, Dudziak J, WeinmannP, et al. Kerncurriculum für die Medizinische Ausbildung inDeutschland: Ein Vorschlag der MedizinstudierendenDeutschlands. GMS Z Med Ausbild. 2006;23(4):Doc58.Zugänglich unter/available from: http://www.egms.de/static/de/journals/zma/2006-23/zma000277.shtml

19. Schnabel KP, Boldt PD, Breuer G, Fichtner A, Karsten G,Kujumdshiev S, Schmidts M, Stosch C. Konsensusstatement"Praktische Fertigkeiten imMedizinstudium" – ein Positionspapierdes GMA-Ausschusses für praktische Fertigkeiten. GMS Z MedAusbild. 2011;28(4):Doc58. DOI: 10.3205/zma000770

20. Fischer MR, Bauer D, Mohn K. Endlich fertig! NationaleKompetenzbasierte Lernzielkataloge Medizin (NKLM) undZahnmedizin (NKLZ) gehen in die Erprobung. GMS ZMed Ausbild.2015;32(3):Doc35. DOI: 10.3205/zma000977

21. Jilg S, Möltner A, Berberat P, Fischer MR, Breckwoldt J. How doSupervising Clinicians of a University Hospital and AssociatedTeaching Hospitals Rate the Relevance of the Key Competencieswithin the CanMEDS Roles Framework in Respect to Teachingin Clinical Clerkships?? GMS ZMed Ausbild. 2015;32(3):Doc33.DOI: 10.3205/zma000975

22. Seyfarth M, Reincke M, Seyfarth J, Ring J, Fischer MR. Neueärztliche Approbationsordnung und Notengebung beim ZweitenStaatsexamen. Dtsch Arztebl Int. 2010;107(28-29):500–504.

23. Raupach T, Vogel D, Schiekirka S, Keijsers C, Cate O Ten,Harendza S. WissenszuwachsimPraktischen Jahr desMedizinstudiums in Deutschland. GMS Z Med Ausbild.2013;30(3):Doc33. DOI: 10.3205/zma000876

24. Schmidmaier R, Holzer M, Angstwurm M, Nouns Z, Reincke M,Fischer MR. Querschnittevaluation des MedizinischenCurriculums München (MeCuM) mit Hilfe des Progress TestsMedizin (PTM). GMS Z Med Ausbild. 2010;27(5):Doc70. DOI:10.3205/zma000707

25. Happel O, Papenfuß T, Kranke P. Schockraummanagement –Simulation, Teamtraining und Kommunikation für eine bessereTraumaversorgung TT - Training for real: simulation, team-trainingand communication to improve traumamanagement. AnästhesiolIntensivmed Notfallmed Schmerzther. 2010;45(06):408–415.DOI: 10.1055/s-0030-1255348

26. Ingham H, Luft J. The Johari Window: a graphic model forinterpersonal relations. Los Angeles: Proceedings of the westerntraining laboratory in group development; 1955.

27. Barnsley L, Lyon PM, Ralston SJ, Hibbert EJ, Cunningham I,Gordon FC, et al. Clinical skills in junior medical officers: Acomparison of self-reported confidence and observedcompetence. Med Educ. 2004;38(4):358–367. DOI:10.1046/j.1365-2923.2004.01773.x

28. Mavis B. Self-efficacy and OSCE performance among secondyear medical students. Adv Heal Sci Educ. 2001;6(2):93–102.DOI: 10.1023/A:1011404132508

29. Jünger J, Schellberg D, Nikendei C. SubjektiveKompetenzeinschätzung von Studierenden und ihre Leistung imOSCE. GMS Z Med Ausbild. 2006;23(3):Doc51. Zugänglichunter/available from: http://www.egms.de/static/de/journals/zma/2006-23/zma000270.shtml

30. Verghese A. A doctor's touch. Edinburgh: TEDGlobal2011; 2011.

31. Peitzman SJ, Cuddy MM. Performance in Physical Examinationon the USMLE Step 2 Clinical Skills Examination. Acad Med.2015;90(2):209–213. DOI: 10.1097/ACM.0000000000000570

32. Vukanovic-Criley JM, Criley S, Warde CM, Boker JR, Guevara-Matheus L, Churchill WH, Nelson WP, Criley JM. Competency incardiac examination skills in medical students, trainees,physicians, and faculty: a multicenter study. Arch Intern Med.2006;166(6):610–616. DOI: 10.1001/archinte.166.6.610

33. Engel C, Porsche M, Roth S, Ganschow P, Büchler MW, KadmonM. Welche Ausbildungsinhalte brauchen Studierende imPraktischen Jahr - Bedarfsanalyse als Basis für ein chirurgischesPJ-Curriculum. GMS Z Med Ausbild. 2008;25(3):Doc89.Zugänglich unter/available from: http://www.egms.de/static/de/journals/zma/2008-25/zma000573.shtml

34. RemmenR, Derese A, Scherpbier A, Denekens J, Hermann I, VanDer Vleuten C, et al. Can medical schools rely on clerkships totrain students in basic clinical skills? Med Educ.1999;33(8):600–605. DOI: 10.1046/j.1365-2923.1999.00467.x

35. Köhl-Hackert N, Krautter M, Andreesen S, Hoffmann K, HerzogW, Jünger J, Nikendei C. Lernen am späteren Arbeitsplatz: eineAnalyse studentischer Erwartungen an den Stationseinsatz imFachbereich der Inneren Medizin. GMS Z Med Ausbild.2014;31(4):Doc43. DOI: 10.3205/zma000935

36. Pugh D, Touchie C, Wood TJ, Humphrey-Murto S. Progress testing:is there a role for the OSCE? Med Educ. 2014;48(6):623–631.DOI: 10.1111/medu.12423

37. Pugh D, Touchie C, Humphrey-Murto S, Wood TJ. The OSCEprogress test – Measuring clinical skill development overresidency training. Med Teach. 2016;38(2):168-73. DOI:10.3109/0142159X.2015.1029895

38. Gold J, DeMuth R, Mavis B, Wagner D. Progress testing 2.0:clinical skills meets necessary science. Med Educ Online.2015;20.

6/16GMS Journal for Medical Education 2016, Vol. 33(4), ISSN 2366-5017

Störmann et al.: How well do final year undergraduate medical students ...

Page 7: Howwelldofinalyearundergraduatemedicalstudents ... · terpretation of a chest X-ray during the respiratory teachingblock).Higher-levelskillssuchasclinicalde-cision-makingarepartoftheformationduringthefinal

39. Duvivier RJ, van Geel K, van Dalen J, Scherpbier AJJ a, van derVleuten CPM. Learning physical examination skills outsidetimetabled training sessions: what happens and why? Adv HealthSci Educ Theory Pract. 2012;17(3):339–355. DOI:10.1007/s10459-011-9312-5

40. Blohm M, Lauter J, Branchereau S, Krauter M, Köhl-Hackert N,Jünger J, Herzog W, Nikendei C. "Peer-Assisted Learning" (PAL)im Skills-Lab – eine Bestandsaufnahme an den MedizinischenFakultäten der Bundesrepublik Deutschland. GMS ZMed Ausbild.2015;32(1):Doc10. DOI: 10.3205/zma000952

41. Profanter C, Perathoner A. DOPS (Direct Observation ofProcedural Skills) im studentischen Skills-Lab: Funktioniert das?Eine Analyse der Performanz klinischer Fertigkeiten und dercurricularen Nebeneffekte. GMS Z Med Ausbild.2015;32(4):Doc45. DOI: 10.3205/zma000987

42. Yu TC, Wilson NC, Singh PP, Lemanu DP, Hawken SJ, Hill AG.Medical students-as-teachers: a systematic review of peer-assisted teaching during medical school. Adv Med Educ Pract.2011;2:157–172.

43. Weyrich P, Celebi N, SchrauthM, Möltner A, Lammerding-KöppelM, Nikendei C. Peer-assisted versus faculty staff-led skillslaboratory training: a randomised controlled trial. Med Educ.2009;43(2):113–120. DOI: 10.1111/j.1365-2923.2008.03252.x

44. Herrmann-Werner A, Nikendei C, Keifenheim K, Bosse HM, LundF, Wagner R, Celebi N, Zipfel S, Weyrich P. "Best Practice" SkillsLab Training vs. a "see one, do one" Approach in UndergraduateMedical Education: An RCT on Students' Long-Term Ability toPerform Procedural Clinical Skills. PLoS One. 2013;8(9):1–13.DOI: 10.1371/journal.pone.0076354

45. Buss B, Krautter M, Mo¨ltner A, Weyrich P, Werner A, Ju¨nger J,Nikendei C. Der "Assessment Drives Learning"-Effekt beimTraining klinisch-praktischer Fertigkeiten - Implikationen für dieCurriculumsgestaltung und die Planung von RessourcenZusammenfassung. GMS Z Med Ausbild. 2012;29(5):Doc70.DOI: 10.3205/zma000840

46. Raes P, Angstwurm M, Berberat P, Kadmon M, Rotgans J,Streitlein-Böhme I, Burckhardt G, Fischer MR.Qualitätsmanagement der klinisch-praktischenAusbildung imPraktischen Jahr des Medizinstudiums – Vorschlag einesKriterienkatalogs der Gesellschaft für Medizinische Ausbildung.GMS Z Med Ausbild. 2014;31(4):Doc49. DOI:10.3205/zma00094

47. Bouwmans GA, Denessen E, Hettinga AM,Michels C, Postma CT.Reliability and validity of an extended clinical examination. MedTeach. 2015;37(12):1072-1077. DOI:10.3109/0142159x.2015.1009423

48. Brown C, Ross S, Cleland J, Walsh K. Money makes the (medicalassessment) world go round: The cost of components of asummative final year Objective Structured Clinical Examination(OSCE). Med Teach. 2015;37(7):653-659. DOI:10.3109/0142159x.2015.1033389

49. Rau T, Fegert J, Liebhardt H. Wie hoch liegen die Personalkostenfür die Durchführung einer OSCE? Eine Kostenaufstellung nachbetriebswirtschaftlichen Gesichtspunkten. GMS Z Med Ausbild.2011;28(1):Doc13. DOI: 10.3205/zma000725

50. Kraus B, Briem S, Jünger J, Schrauth M, Weyrich P, Herzog W,Zipfel S, Nikendei C. Entwicklung und Evaluation einesSchulungsprogramms für Studenten im Praktischen Jahr in derInneren Medizin. GMS Z Med Ausbild. 2006;23(4):Doc70.Zugänglich unter/available from: http://www.egms.de/static/de/journals/zma/2006-23/zma000289.shtml

51. Yates J. Development of a "toolkit" to identify medical studentsat risk of failure to thrive on the course: an exploratoryretrospective case study. BMC Med Educ. 2011;11(1):95. DOI:10.1186/1472-6920-11-95

52. Winston KA, van der Vleuten CP, Scherpbier AJ. Prediction andprevention of failure: An early intervention to assist at-riskmedical students. Med Teach. 2014;36(1):25–31. DOI:10.3109/0142159X.2013.836270

53. Bosse HM, Mohr J, Buss B, Krautter M, Weyrich P, Herzog W,Jünger J, Nikendei C. The benefit of repetitive skills training andfrequency of expert feedback in the early acquisition ofprocedural skills. BMC Med Educ. 2015;15(1):22. DOI:10.1186/s12909-015-0286-5

54. Van Der Vleuten CP, Schuwirth LW. Assessing professionalcompetence: From methods to programmes. Med Educ.2005;39(3):309–317. DOI: 10.1111/j.1365-2929.2005.02094.x

55. Epstein RM. Medical education - Assessment in medicaleducation. N Engl J Med. 2007;356(4):387–396. DOI:10.1056/NEJMra054784

56. Norcini J, Burch V. Workplace-based assessment as aneducational tool: AMEE Guide No. 31. Med Teach.2007;29(9):855–871. DOI: 10.1080/01421590701775453

57. Abadel FT, Hattab AS. How does the medical graduates' self-assessment of their clinical competency differ from experts'assessment? BMC Med Educ. BMC Med Educ. 2013;13(1):24.DOI: 10.1186/1472-6920-13-24

58. Falchikov N. Student self-assessment in higher education: Ameta-analysis. Rev Educ Res. 1989;59(359):394–430. DOI:10.3102/00346543059004395

59. Davis DA, Mazmanian PE, Fordis M, Van Harrison R, Thorpe KE,Perrier L. Accuracy of Physician Self-assessment ComparedWithObserved Measures of Competence. JAMA. 2006;296(9):1094.DOI: 10.1001/jama.296.9.1094

60. Berner ES, Graber ML. Overconfidence as a cause of diagnosticerror in medicine. Am J Med. 2008;121(5 Suppl):S2–23.

61. Cavalcanti RB, Sibbald M. Am I right when I am sure? Dataconsistency influences the relationship between diagnosticaccuracy and certainty. Acad Med. 2014;89(1):107–113. DOI:10.1097/ACM.0000000000000074

62. Verghese A, Charlton B, Kassirer JP, Ramsey M, Ioannidis JP.Inadequacies of Physical Examination as a Cause of MedicalErrors and Adverse Events: A Collection of Vignettes. Am J Med.2015;128(12):1322-1324. DOI:10.1016/j.amjmed.2015.06.004

63. Lane JL, Gottlieb RP. Improving the interviewing and self-assessment skills of medical students: is it time to readoptvideotaping as an educational tool? Ambul Pediatr.2004;4(3):244–248. DOI: 10.1367/A03-122R1.1

64. Hawkins SC, Osborne A, Schofield SJ, Pournaras DJ, Chester JF.Improving the accuracy of self-assessment of practical clinicalskills using video feedback – The importance of includingbenchmarks. Med Teach. 2012;34(4):279–284. DOI:10.3109/0142159X.2012.658897

65. Eva KW, Armson H, Holmboe E, Lockyer J, Loney E, Mann K,Sargeant J. Factors influencing responsiveness to feedback: onthe interplay between fear, confidence, and reasoning processes.Adv Health Sci Educ Theory Pract. 2012;17(1):15–26. DOI:10.1007/s10459-011-9290-7

7/16GMS Journal for Medical Education 2016, Vol. 33(4), ISSN 2366-5017

Störmann et al.: How well do final year undergraduate medical students ...

Page 8: Howwelldofinalyearundergraduatemedicalstudents ... · terpretation of a chest X-ray during the respiratory teachingblock).Higher-levelskillssuchasclinicalde-cision-makingarepartoftheformationduringthefinal

Corresponding author:Sylvère StörmannKlinikum der Universität München, Medizinische Klinikund Poliklinik IV, Ziemssenstraße 1, D-80336 München,Germany, Phone: +49 (0)89/4400-52318, Fax: +49(0)89/[email protected]

Please cite asStörmann S, Stankiewicz M, Raes P, Berchtold C, Kosanke Y, Illes G,Loose P, AngstwurmMW. Howwell do final year undergraduatemedicalstudents master practical clinical skills? GMS J Med Educ.2016;33(4):Doc58.DOI: 10.3205/zma001057, URN: urn:nbn:de:0183-zma0010578

This article is freely available fromhttp://www.egms.de/en/journals/zma/2016-33/zma001057.shtml

Received: 2015-09-30Revised: 2016-03-11Accepted: 2016-05-10Published: 2016-08-15

Copyright©2016 Störmann et al. This is an Open Access article distributed underthe terms of the Creative Commons Attribution 4.0 License. See licenseinformation at http://creativecommons.org/licenses/by/4.0/.

8/16GMS Journal for Medical Education 2016, Vol. 33(4), ISSN 2366-5017

Störmann et al.: How well do final year undergraduate medical students ...

Page 9: Howwelldofinalyearundergraduatemedicalstudents ... · terpretation of a chest X-ray during the respiratory teachingblock).Higher-levelskillssuchasclinicalde-cision-makingarepartoftheformationduringthefinal

Wie gut beherrschen Studierende im Praktischen Jahrklinisch-praktische Fertigkeiten?

ZusammenfassungEinleitung:Die körperliche Untersuchung und klinisch-praktische Fertig-keiten sind wesentliche ärztliche Fähigkeiten, mit deren Hilfe die Dia-

Sylvère Störmann1

Melanie Stankiewicz1gnostik und Therapie von Krankheiten gesteuert werden. Durch curricu-Patricia Raes1lare Veränderungen wird der praktischen Ausbildung ein hoher Stellen-Christina Berchtold1wert eingeräumt. Wie gut beherrschen also Studierende im Praktischen

Jahr (PJ) klinisch-praktische Fertigkeiten? Yvonne Kosanke1

Methoden: Wir führten eine freiwillige mündlich-praktische Prüfungmittels OSCE bei Studierenden im PJ durch. Inhalte der Prüfung waren Gabrielle Illes1

Peter Loose1u.a. die körperliche Untersuchung (Herz, Lunge, Abdomens, Gefäßsys-tem, Lymphsystem; neurologische, endokrinologische bzw. orthopädi- Matthias W.

Angstwurm1sche Untersuchung) sowie elementare praktische Fertigkeiten (etwaEKG-Interpretation, Basis-Befundung Röntgen-Thorax). Die Teilnehmerfüllten zudem vor Beginn der Prüfung einen Fragebogen aus, u.a. zurEinschätzung der eigenen Leistung. 1 Klinikum der Universität

München, MedizinischeErgebnisse: Insgesamt 214 PJ-Studierende nahmen teil und erreichten72,8% der erreichbaren Punktzahl. Eine nicht ausreichende Leistung Klinik und Poliklinik IV,

München, Deutschland(<60%) zeigten 9,3% der Teilnehmer (n=20). Geschlecht, vorangegan-gene Ausbildung in einem Gesundheitsberuf sowie Studienort hattenkeinen Einfluss auf die Leistung. ImMittel schätzten sich die Studieren-den 0,5 Notenstufen besser. 35,3% der Teilnehmer vermochten ihreLeistung richtig einzuschätzen. 30,0% überschätzten ihr Ergebnis umeine Notenstufe, 18,8% um zwei oder mehr Notenstufen.Diskussion: Studierende im Praktischen Jahr zeigen deutliche Defizitebei der Durchführung klinisch-praktischer Fertigkeiten im Rahmen einermündlich-praktischen Prüfung. Dabei überschätzt knapp die Hälfte derStudierenden die eigene Leistung. Eine institutionalisierte, regelhaftePrüfung der mündlich-praktischen Fähigkeiten im Praktischen Jahr er-scheint daher notwendig.

Schlüsselwörter: praktische Prüfung, OSCE, körperliche Untersuchung,klinische Fertigkeiten

1. EinleitungDie körperliche Untersuchung ist eine der wesentlichenärztlichen Fertigkeiten, mit deren Hilfe eine Diagnosegestellt und eine Therapie begonnen werden kann [1],[2], [3]. Durch eine zunehmend „apparativ“ gestalteteMedizin beobachten einige Autoren mit Sorge einenRückgang der Fähigkeit zur systematischen und fokus-sierten körperlichen Untersuchung [4], [5]. Medizinstudie-rendewie auch junge Ärzte zeigen in einigen Untersuchun-gen Defizite im Rahmen der körperlichen Untersuchung[6], [7]. Durch die Neufassung der Ärztlichen Approbati-onsordnung im Jahre 2002 hat sich die Gestaltung despraktischen Unterrichts an deutschen Medizinfakultätendeutlich geändert und zu einer Vielzahl verschiedenerÄnderungen und Reformen der Curricula deutscher Me-dizinfakultäten geführt [8], [9], [10], [11], [12], [13], [14].

Mit den strengen Vorgaben zu Art und Umfang des kli-nisch-praktischen Unterrichts wurde hierdurch ein neuerSchwerpunkt auf eine Formalisierung des Unterrichtsklinischer Fertigkeiten in der curricularen Gestaltung ge-setzt [15](. Hieraus entstanden auch neue Konzepte zurGestaltung von Unterricht und ganzen Curricula mit ärzt-lichen Kompetenzen imMittelpunkt [16], [17], [18], [19],[20]. Dabei zielt eine intensive Schulung klinisch-prakti-scher Fähigkeiten und Kompetenzen während der erstenJahre des Medizinstudiums darauf ab, die Studierendengut auf ihre Rolle als angehende Ärzte vorzubereiten,deren praktische Ausbildung im entsprechend benanntenPraktischen Jahr kulminiert [21]. ImMedizinischen Curri-culum München (MeCuM) wird entsprechend den Anfor-derungen früh mit einer klinischen Integration der vorkli-nischen Fächer begonnen. Ab dem 3. Semester erlernenund üben die Studierenden die Anamnese. Ab dem 5.Semester kommt die körperliche Untersuchung hinzu,deren theoretisches Fundament und die prakische Aus-

9/16GMS Journal for Medical Education 2016, Vol. 33(4), ISSN 2366-5017

ArtikelThis is the translated (German) version.

The original (English) version starts at p. 1.OPEN ACCESSPraktische Fertigkeiten

Page 10: Howwelldofinalyearundergraduatemedicalstudents ... · terpretation of a chest X-ray during the respiratory teachingblock).Higher-levelskillssuchasclinicalde-cision-makingarepartoftheformationduringthefinal

übung in mehreren Lehrformaten (klassische Vorlesun-gen, Unterricht am Krankenbett, Peer Teaching, BlendedLearning) gelehrt wird. Im Rahmen von longitudinal ange-legten Praktika in Allgemeinmedizinischen Praxen sowiewiederholtem Unterricht am Krankenbett werden diekörperliche Untersuchung und klinische Kompetenzendes Arztes immer wieder geübt und durch Feedback-Ge-spräche das Lernen gesteuert. Im Laufe des weiterenStudiums werden dabei im system- bzw. fach-bezogenenKontext weitere praktische Kompetenzen im Rahmendes Unterrichts vermittelt (z.B. EKG schreiben und lesen,Basisdiagnostik in Befundung eines Röntgen Thorax,Punktionstechniken, situations-bezogene klinische Ent-scheidungsfindung). Eine vergleichende Untersuchungder Notengebung im Zweiten Staatsexamen nach altemund nach neuem Recht an den beiden medizinischenFakultäten in München (LMU und TU) zeigte jedoch einestatistisch signifikante Verschlechterung der Noten in dermündlich-praktischen Abschlussprüfung [22]. Die nach2002 eingetretenen Veränderungen in dermedizinischenLehre sind in punkto Wissenszuwachs im klinischenStudienabschnitt gut belegt [23], [24]; bislang fehlen je-doch Untersuchungen zu den erlernten praktischen Fer-tigkeiten und ärztlichen kompetenzbasierten Lernzielen.Es stellt sich also die Frage, wie gut Studierende, die nachMaßgabe der „neuen“ Approbationsordnung unterrichtetund praktisch ausgebildet wurden, im Praktischen Jahrklinisch-praktische Fertigkeiten tatsächlich beherrschen.Darüber hinaus spielt die adäquate Einschätzung der ei-genen Leistungsfähigkeit und damit auch der eigenenKompetenz-Grenzen eine wichtige Rolle in der Versorgungvon Patienten. Jeder an der Patientenversorgung Beteilig-te sollte bei gefühlter Überforderung die nötige Hilfe su-chen [25]. Es ist somit für einen jeden (zukünftigen) Arztwichtig, die eigenen Grenzen zu kennen, um weiterenSchaden durch falsches Handeln oder fehlerhaftes Unter-lassen zu verhindern. Die Gefahr liegt dabei sowohl imÜberschätzen (unbewusste Inkompetenz) als auch imUnterschätzen (unbewusste Kompetenz) der eigenenFähigkeiten [26]. In mehreren Untersuchungen konntedabei gezeigt werden, dass zwischen der subjektivenEinschätzung der eigenen ärztlichen Leistungsfähigkeitund der objektiv gemessenen Leistungsfähigkeit nichtnotwendiger Weise eine Korrelation besteht [27], [28],[29]. Auch PJ-Studierende müssen bereits über eine„gesunde Selbsteinschätzung“ verfügen und sich ihrerVerantwortung bewusst sein. Diese beginnt bereits beider Aufnahme des Patienten auf Station. Die körperlicheUntersuchung ist dabei ein nicht zu ersetzender Grund-pfeiler der medizinischen Diagnosefindung [2], [30], dergute Fachkenntnis und gute manuelle Fertigkeiten vor-aussetzt. Eine entsprechend realistische Beurteilung dereigenen Leistungsfähigkeit ist daher von besondererBedeutung, insbesondere da gerade von der Selbstüber-schätzung in jungen Assistenzarztjahren große Gefahrfür das Wohl der anvertrauten Patienten ausgeht. Inwie-fern also sind Studierende imRahmen dieses fortgeschrit-tenen und kritischen Ausbildungs-Szenarios in der Lageihre Fähigkeiten adäquat einzuschätzen?

2. MethodenStudierenden im Praktischen Jahr wurde von Mitte 2011bis Ende 2014 die freiwillige Teilnahme an einer münd-lich-praktischen Prüfung im OSCE-Format angeboten(mündlich-praktische Prüfung im PJ, kurz: mP3). Zieldieser Prüfung war es, den Teilnehmern eineMöglichkeitzu bieten, das eigene Können in Bezug auf klinisch-praktische Fertigkeiten und ärztliche Kompetenzen zuüberprüfen und im Rahmen eines individualisiertenFeedbacks Stärken und Schwächen darzulegen. DieTeilnehmer durchliefen vier OSCE-Stationen zu verschie-denen Teilbereichen klinisch-praktischer Fertigkeiten(Untersuchung des Herzens, der Lunge, des Abdomens,des Gefäßsystems, des Lymphsystems; neurologische,endokrinologische bzw. orthopädische Untersuchung;u.a. Anfertigung und Interpretation eines EKGs, Beurtei-lung eines Abdomen-CT, Beurteilung und Interpretationeiner Röntgen-Aufnahme des Thorax, Schilderung despraktischen Vorgehens einer klinischen Situation in derNotaufnahme, Anforderung von Laboruntersuchungenbei bestimmten klinischen Fragestellungen). Jede Stationbestand zu etwa zwei Dritteln aus körperlicher Untersu-chung und einemDrittel zum jeweiligen Kontext passendepraktische Fertigkeiten. Jede Prüfung wurde dabei vorabaus einem Katalog von insgesamt 12 verschiedenenOSCE-Stationen zusammengestellt. Alle OSCE-Stationenwurden durch ein Expertengremium gestaltet und vali-diert. Für die Prüfung der körperlichen Untersuchungwurden standardisierte Probanden verwendet. Punktewurden nur für die korrekte Durchführung der einzelnenSchritte vergeben. Für jede der Stationen hatten dieStudierenden exakt 12Minuten Zeit. Im Anschluss erfolg-te ein 3-minütiges Feedback durch den Prüfer. Jeder derinsgesamt 19 Prüfer verfügte über Erfahrung als Prüferin einemOSCE sowie klinisch-praktischeBerufserfahrung.Durch regelmäßig stattfindende Dozententrainings durchunser Institut für Didaktik und Ausbildungsforschung inderMedizin werden dabei einheitliche Qualitätsstandardsbei Prüfungsformaten wie dem OSCE erreicht.Die Studierenden gabenmittels eines Fragebogen freiwil-lig Auskunft über persönliche und demographische Anga-ben, den Studienverlauf (einschließlich aktuellem PJ-Tertial) sowie etwaige vor dem Studium erworbene Fähig-keiten im Gesundheitsbereich (etwa: Ausbildung zumRettungssanitäter bzw. zum Gesundheitspfleger), sowiedie Selbsteinschätzung der klinischen Kompetenz aufeiner 5-Punkte Notenskala (Note 1=„sehr gut“, Note5=„mangelhaft“). Um die studentische Selbsteinschät-zung mit dem objektiven Ergebnis der OSCE-Prüfungvergleichen zu können, wurde das Ergebnis in Notenstu-fen entsprechend dem Notenschlüssel für schriftlichePrüfungen der Ärztlichen Approbationsordnung umgewan-delt [8]. Das Gesamtergebnis der Prüfung und ihrer ein-zelnen Teilstationen wurde nach Auswertung der jeweili-gen Prüfung den Teilnehmern mitgeteilt.Die statistische Auswertung wurde mit dem ProgrammSPSS (IBM Corp., Armonk, NY, U.S.A.) durchgeführt. Mit-telwertsunterschiede zwischen zwei Gruppen wurdenmit

10/16GMS Journal for Medical Education 2016, Vol. 33(4), ISSN 2366-5017

Störmann et al.: Wie gut beherrschen Studierende im Praktischen Jahr ...

Page 11: Howwelldofinalyearundergraduatemedicalstudents ... · terpretation of a chest X-ray during the respiratory teachingblock).Higher-levelskillssuchasclinicalde-cision-makingarepartoftheformationduringthefinal

Hilfe der t-Test-Familie untersucht; bei mehreren Gruppenwurde eine Varianzanalyse durchgeführt. Die Effektstär-ken wurde mittels Cohen’s d bestimmt. Es wurde ein Si-gnifikanzniveau von α=0,05 festgelegt.Ablauf, Zweck und Intention der wissenschaftlichen Aus-wertung der praktischen Prüfung wurden der lokalenEthikkommission der LMU angezeigt. Die formale Ausstel-lung eines Ethikvotums zur Durchführung dieser Studiewurde durch diese jedoch als nicht notwendig bewertet.Die Studie wurde nach den Grundsätzen der Deklarationvon Helsinki (Neufassung Seoul 2008) und dem GenferGelöbnis durchgeführt. Die Teilnahme an der Prüfungund der Studie war freiwillig; die Teilnehmer stimmtender Auswertung der Prüfungsergebnisse schriftlich zu.Die Teilnahme zur Prüfung wurde allen PJ-Studierendenangeboten. Die Teilnahme an der Prüfung wurde nichtvon der Einwilligung zur wissenschaftlichen Auswertungabhängig gemacht.

3. ErgebnisseStudienpopulation

An der Studie nahmen insgesamt 214 Studierende imZeitraum von Mitte 2011 bis Ende 2014 statt. Das me-diane Alter der Studierenden betrug 26,3 Jahre (±4,5Jahre). 64,0% der Teilnehmer waren weiblich (n=137),entsprechend der Geschlechterverteilung aller Medizin-studierenden an der LMUMünchen. Das Alter unterschiedsich nicht signifikant zwischen den Geschlechtern(m=27,5±3,2 Jahre; w=27,1±5,1 Jahre; p=0,544). 156Teilnehmer (72,9%) hatten ihr bisheriges Studium voll-ständig an der LMU München absolviert.

Gesamtleistung

Im Mittel erreichten die Teilnehmer 72,8%±10,1% dererreichbaren Punktezahl (Histogramm: siehe Abbildung 1). Entsprechend dem Notenschlüssel für schriftliche Prü-fungen der Ärztlichen Approbationsordnung erreichten3,7% die Note 1 (Punktewert =90%, n=8), 23,4% dieNote 2 (80-90%, n=50), 34,6% die Note 3 (70-80%, n=74)und 29,0% die Note 4 (60-70%, n=62). Von allen Teilneh-mern erzielten 9,3% (n=20) weniger als 60% der erreich-baren Punkte, entsprechend einer nicht ausreichendenLeistung.

Beeinflussende Faktoren

Der Vergleich der Leistung getrennt nach Geschlechternzeigt eine tendenziell, allerdings nicht signifikant bessereLeistung der weiblichen Prüfungsteilnehmerinnen(73,7%±10,1% versus 71,1%±9,9%; p=0,069). Die Prü-fungsergebnisse von Studierenden, die ihr Studium voll-ständig an der LMU München absolviert haben, unter-schieden sich nicht signifikant von anderen Medizinstu-dierenden, die während des Studiums oder zum PJ andie LMU München wechselten (p=0,349). Auch eine vor-

ausgegangene Ausbildung in einem Gesundheitsberufging nicht mit signifikant besseren Leistungen einher(p=0,363). Es zeigten sich ebenfalls keine Unterschiededer Prüfungsleistung von 2011 bis 2014 (p=0,881).Der Großteil der Studierenden stellte sich laut eigenenAngaben ohne vorherige, spezifische Vorbereitung zurPrüfung vor (63,1%). Hierbei wurden signifikant schlech-tere Ergebnisse erzielt (71,8%±9,3%) als durch die Stu-dierenden, die sich vor der Prüfung darauf vorbereitethatten. Letztere erreichten ein Ergebnis von 78,6%±0,0%(p<0,001; d=0,27). Einen Überblick über die Prüfungser-gebnisse der untersuchten Faktoren gibt Tabelle 1.

Selbsteinschätzung

Insgesamt 79,4% der Teilnehmer (n=170) gaben eineEinschätzung der eigenen Kompetenz bezüglich der kli-nisch-praktischen Fertigkeiten an. Hierbei zeigte sich einesignifikante, aber geringe Korrelation zwischen derSelbsteinschätzung und tatsächlich erzielten Leistung(r=0,26; p<0,001). ImMittel schätzten sich die Studieren-den 0,5 Notenstufen besser. 60 Teilnehmer (35,3%)vermochten ihre Leistung richtig einzuschätzen. 51 Stu-dierende (30,0%) überschätzten ihr Ergebnis um eineNotenstufe, 32 Teilnehmer (18,8%) um zwei oder mehrNotenstufen. Von den 20 Studierendenmit einemGesam-tergebnis unter 60% („nicht ausreichend“) hatten 16 eineSelbsteinschätzung vorgenommen. 13 Studierende(81,3%) schätzten dabei ihre Leistung zu gut ein. Lediglich21 Studierende (12,4%) unterschätzten ihre Leistung umeine Notenstufe; 6 Teilnehmer (3,5%) beurteilten ihreLeistung um mindestens zwei Notenstufen zu schlecht.Die durchschnittliche Selbsteinschätzung in Abhängigkeitder tatsächlichen Leistung ist in Abbildung 2 dargestellt.

4. DiskussionDie körperliche Untersuchung bleibt ein wichtiges Instru-ment der ärztlichen Tätigkeit. In unserer Auswertung einerfreiwilligenmündlich-praktischen Prüfung im PraktischenJahr konnten wir zeigen, dass die Fähigkeiten zu klinisch-praktischen Fähigkeiten wie vor allem der körperlichenUntersuchung oder der Kompetenz, Befunde zu bewertenund zu interpretieren, jedoch selbst im fortgeschrittenenAusbildungs-Szenario des Praktischen Jahres nur mäßiggut beherrscht wird. Ähnliche Ergebnisse konnten beiamerikanischen Medizinstudierenden gezeigt werden[31]. Mit Hilfe des Progress Tests Medizin (PTM) konntean der LMU München gezeigt werden, dass das Wissenin Innerer Medizin während des Studiums kontinuierlichwächst [24]. Allerdings sind diese Ergebnisse nicht ohneweiteres auf die praktischen Fähigkeiten und andereärztliche Kompetenzen übertragbar [32]. Obwohl eineSupervision von Studierenden im Praktischen Jahr not-wendige Voraussetzung zur Kontrolle und Optimierungder vorhandenen praktischen Fertigkeiten ist und darüberhinaus dem Erlernen neuer Fähigkeiten dient, sieht dieRealität doch oft anders aus und der Kompetenzerwerb

11/16GMS Journal for Medical Education 2016, Vol. 33(4), ISSN 2366-5017

Störmann et al.: Wie gut beherrschen Studierende im Praktischen Jahr ...

Page 12: Howwelldofinalyearundergraduatemedicalstudents ... · terpretation of a chest X-ray during the respiratory teachingblock).Higher-levelskillssuchasclinicalde-cision-makingarepartoftheformationduringthefinal

Abbildung 1: Histogramm der Gesamt-Prüfungsleistung (jeweils 4 OSCE-Stationen)

Tabelle 1: Untersuchung möglicher Einflussfaktoren auf das Prüfungsergebnis

Abbildung 2: Netzdiagramm der Gesamt-Prüfungsleistung und der durchschnittlichen Selbsteinschätzung

bleibt dem Zufall und im wesentlichen dem individuellenEngagement der Studierenden überlassen [33], [34],[35]. Neue Ansätze verfolgen daher das Ziel, klinischeFertigkeiten und Kompetenzen im Rahmen eines Pro-

gress-Tests longitudinal zu beobachten [36], [37], [38];bislang fehlen hierzu jedoch publizierte Daten.Das Lernen von praktischen Fähigkeiten ist ohne aufwän-dige Interventionen und einem reibungslosen Zusammen-spiel aller an der praktischen Ausbildung beteiligten

12/16GMS Journal for Medical Education 2016, Vol. 33(4), ISSN 2366-5017

Störmann et al.: Wie gut beherrschen Studierende im Praktischen Jahr ...

Page 13: Howwelldofinalyearundergraduatemedicalstudents ... · terpretation of a chest X-ray during the respiratory teachingblock).Higher-levelskillssuchasclinicalde-cision-makingarepartoftheformationduringthefinal

Parteien (medizinische Fakultät, Lehrkrankenhäuser imakademischen Umfeld, aber auch die an der Famulanten-ausbildung beteiligten Krankenhäuser und Praxen) undsomit in realiter nur bedingt steuerbar; ein Großteil der„Übung“, mit der Studierende ihre klinisch-praktischenFertigkeiten entwickeln, erfolgt außerhalb des Unterrichts[39]. Damit entzieht sich dieser wichtige Teil der Ausbil-dung aus der strukturierten Vermittlung an den Universi-täten. Bisherige Methoden, die Vermittlung praktischerFertigkeiten zu institutionalisieren, fokussieren auf denEinsatz von sogenannten Skills-Labs [40], [41]. In derMehrheit der Fälle handelt es sich hierbei um studenti-sche Tutoren, die im Sinne von „peer teaching“ jüngereKommilitonen die entsprechenden Fertigkeiten lehren.Vorbehalte über etwaige Defizite dieses Konzepts wurdenin zahlreichenUntersuchungenwiderlegt [42], [43]. Durchentsprechend strukturierte Angebote lässt sich die Ver-mittlung von praktischen Fertigkeiten im Skills Labnachhaltig verbessern [44].Ein weiterer Mechanismuszur Begleitung der Entwicklung der individuellen Fähigkei-ten kann sein, intermittierende formative Prüfungen an-zubieten und dabei den Effekt zu nutzen, dass Prüfungendas Lernen fördern [45]. Hierbei sollten auch alsMaßnah-men zumQualitätsmanagement der klinisch-praktischenAusbildung im Praktischen Jahr des Medizinstudiumsformative Prüfungen stattfinden, die klinische Fertigkeitenund ärztliche Kompetenzen prüfen [46]. Idealerweisewerden dabei auch – wie in der vorliegenden Studie –unterschiedliche Fertigkeiten geprüft und die einzelnenPrüfungen aus einem Katalog unterschiedlicher Kompo-nenten zusammengestellt [47]. Angesichts der hohenKosten, diemit diesen Prüfungsformaten verbunden sind[48], [49], ist von den Fakultäten ein entsprechendesUmdenken notwendig, um übergreifende, fachlich losge-löste Maßnahmen zur Verbesserung der klinisch-prakti-schen Fähigkeiten zu finanzieren, etwa in Form speziellerSchulungsprogramme [50]. Dabei stellen schon einigekonzeptionelle Fragen erste Hürden auf: Welche Studie-renden profitieren von solchen Prüfungen? Wie oft müs-sen diese Prüfungen wiederholt werden? Wann sollte imStudienverlauf damit begonnen werden? Ist OSCE dasrichtige Prüfungsformat? Die Fragen lassen sich nichtpauschal durch allgemein ableitbare Empfehlungen ausdem umfangreichen Literatur-Fundus zu den Themenformativer und klinisch-praktischer Prüfungen beantwor-ten. Eine Selektion von Studierenden, die ein solchesAngebot erhalten, ist ethisch bedenklich. Allerdings profi-tieren diejenigen, die schlechtere Leistungen zeigen,mehr von zusätzlichen Interventionen [51], [52], so dassaus ökonomischen Erwägungen heraus eine Beschrän-kung auf ebensolche Studierende zu rechtfertigen wäre.Ein denkbarer und reizvoller Mittelweg, der jedoch denadministrativen Aufwand wiederum erhöht, könnte essein, allen Studierenden eineMindestzahl dieser Prüfun-gen anzubieten und „gefährdete Teilnehmer“, derenLeistungen nicht einem definiertenMindestmaß entspre-chen, öfter zu prüfen. Wie häufig es jedoch solcher Prü-fungen bedarf und ab welchem Semester damit sinnvol-lerweise begonnen werden sollte, bleibt vollkommen of-

fen, da hierzu wenig Daten vorliegen [53]. Um ein zuspätes Feedback, wenn falsche Techniken bereits Routinegeworden sind, zu vermeiden, halten wir jedoch einenfrühen Beginn formativer, praktischer Prüfungen fürsinnvoll. Alternative Prüfungsformate wie Mini-CEX undandere (etwa CEC undDOPS), die direkt am „Arbeitsplatz“durchgeführt werden, bieten interessanteMöglichkeiten,intermittierende Prüfungenmit vergleichsweise geringemunmittelbarem à-priori-Aufwand direkt am Patienten aufStation durchzuführen [54], [55], [56]. Hierbei ist jedochzu beachten, dass umso mehr Aufwand in der Schulungder Prüfer aufzubringen ist.Die Selbsteinschätzung war bei einem Drittel der Studie-renden zutreffend. Nahezu die Hälfte der Teilnehmerüberschätzte jedoch die eigene Leistung im Vergleich zurtatsächlichen Leistung; nahezu jeder fünfte Teilnehmerüberschätzte die Leistung dabei deutlich. Dies ist deutlichmehr als bislang beschrieben [29], [57]. Das Phänomenist jedoch nicht neu und weder auf Humanmedizin nochstudentische Selbsteinschätzung beschränkt [58], [59].Im Anschluss an die Prüfung erhielten unsere Teilnehmereine Mitteilung über die erreichte Leistung. Im Rahmendieser Mitteilung erfolgte auch ein nicht strukturiertes,qualitatives Feedback durch die Studierenden selbst.Hierbei ließ sich eine deutliche Verblüffung über die Dis-krepanz von Selbsteinschätzung und tatsächlicher Leis-tung erkennen. Die Konsequenzen der Selbstüberschät-zung können gravierend sein, insbesondere wenn sie zudiagnostischen Fehlern und damit auch Therapiefehlernführt [60], [61], [62]. Die Fähigkeit zur Selbsteinschätzungist schwer zu trainieren. Lange wurde propagiert, dassVideo-Feedback der eigenen Leistung ausreichen würde,um die studentische Selbsteinschätzung zu verbessern[63]. In einer Studie von Hawkins und Kollegen konnteeine Verbesserung der Selbsteinschätzung lediglich retro-spektiv erreicht werden, indem zusätzlich zum Vorspieleneiner Videoaufzeichnung der eigenen Leistung auch eineAufzeichnung einer korrektenDurchführung als Vergleichs-punkt präsentiert wurde [64]. Es ist daher ebenfallswichtig durch gut konstruiertes Feedback den Studieren-den ein adäquates Bild ihrer Leistungen und ihrer Leis-tungsfähigkeit zu vermitteln und die korrekte Durchfüh-rung zu demonstrieren. Dabei muss allerdings bedachtwerden, dass die Erwartungen und Einstellungen zur se-lektiven Wahrnehmung von Kritik führen kann [65].Bei der vorliegenden Studie handelt es sich um einefreiwillige Prüfung, zu der sich die Teilnehmer anmeldenmussten. Hierdurch besteht ein Bias, der zu einer Verzer-rung der Ergebnisse geführt haben könnte. Man würdejedoch bei einer freiwilligen Prüfung erwarten, dass sichbesonders engagierte undmotivierte Studierendemeldenund so eher ein Bias hin zu falsch-hohen Ergebnissenvorliegt. Insofern erachten wir unsere Daten und diedaraus gewonnen Schlüsse für plausibel. Allerdings wirddas Angebot von den Studierenden als gute Möglichkeiteingeschätzt, sich auf diemündlich-praktische Abschluss-prüfung des Studiums vorzubereiten und erscheint ent-sprechend attraktiv („Es war sehr hilfreich nochmalselbstkritisch körperliche Untersuchung prüfungskonform

13/16GMS Journal for Medical Education 2016, Vol. 33(4), ISSN 2366-5017

Störmann et al.: Wie gut beherrschen Studierende im Praktischen Jahr ...

Page 14: Howwelldofinalyearundergraduatemedicalstudents ... · terpretation of a chest X-ray during the respiratory teachingblock).Higher-levelskillssuchasclinicalde-cision-makingarepartoftheformationduringthefinal

einzuüben. Danke für die Mühen der Organisatoren undZeit der Prüfer.“, „Ich bin auf Empfehlung einer Kommili-tonin gekommen.“). Eine Stärke unserer Untersuchungist die Größe der Studienpopulation, die verlässlicheAussagen über auch kleinere Effekte zulässt.

5. SchlussfolgerungenDie Leistungen von Studierenden im Praktischen Jahr beider Durchführung klinisch-praktischer Kompetenzen imRahmeneinermündlich-praktischenPrüfung bietenRaumfür Verbesserung. Nahezu zwei Drittel der Studierendenzeigen lediglich eine befriedigende oder ausreichendeLeistung; jeder zehnte Teilnehmer versagt in der Prüfung.Dabei überschätzt knapp die Hälfte der Studierenden dieeigene Leistung. Eine fest etablierte standardisierte, for-mative Prüfung im Praktischen Jahr erscheint daher not-wendig.

DanksagungWir danken unseren Prüfern und Kollegen für die tatkräf-tige Unterstützung bei der Umsetzung der mündlich-praktischen Prüfung im PJ (mP3): Prof. Dr. Ralf Schmid-maier, PD Dr. Peter Reilich, PD Dr. Stefan Grote, PD Dr.Peter Thaller, PD Dr. Philipp Baumann, Dr. KathrinSchrödl, Dr. Philip von der Borch, Dr. Bert Urban, Dr. Mi-chael Maier, Dr. Mark op den Winkel, Dr. CostanzaChiapponi, Anja Fischer, Caroline Strenkert, AndreasSturm und Christina Berr.

InteressenkonfliktDie Autoren erklären, dass sie keinen Interessenkonfliktim Zusammenhang mit diesem Artikel haben.

Literatur1. Kirch W, Schafii C. Misdiagnosis at a university hospital in 4

medical eras. Medicine (Baltimore). 1996;75(1):29–40. DOI:10.1097/00005792-199601000-00004

2. Reilly BM. Physical examination in the care of medical inpatients:an observational study. Lancet. 2003;362(9390):1100–1105.DOI: 10.1016/S0140-6736(03)14464-9

3. Kugler J, Verghese A. The physical exam and other forms offiction. J Gen Intern Med. 2010;25(8):756–757. DOI:10.1007/s11606-010-1400-3

4. Feddock CA. The lost art of clinical skills. Am J Med.2007;120(4):374–378. DOI: 10.1016/j.amjmed.2007.01.023

5. Cook C. The lost art of the clinical examination: an overemphasison clinical special tests. J Man Manip Ther. 2010;18(1):3–4.DOI: 10.1179/106698110X12595770849362

6. Wilkerson L, Lee M. Assessing physical examination skills ofsenior medical students: knowing how versus knowing when.Acad Med. 2003;78(10 Suppl):S30–S32.

7. Ramani S, Ring BN, Lowe R, Hunter D. A pilot study assessingknowledge of clinical signs and physical examination skills inincoming medicine residents. J Grad Med Educ.2010;2(2):232–235. DOI: 10.4300/JGME-D-09-00107.1

8. Bundesministerium für Gesundheit. Approbationsordnung fürÄrzte. Berlin: Bundesministerium für Gesundheit; 2002.

9. Eitel F. Die neue Approbationsordnung verlangt tief greifendeÄnderungen in der Lehrorganisation. Gesundheitswesen (SupplMed Ausbild). 2002;19(Suppl1):1–2. Zugänglich unter/availablefrom: https://gesellschaft-medizinische-ausbildung.org/files/ZMA-Archiv/2002/1/Eitel_F-ae.pdf

10. Steiner T, Schmidt J, Bardenheuer H, Kirschfink M, Kadmon M,Schneider G, Seller H, Sonntag HG, für die HEICUMEDPlanungsgruppe. HEICUMED?: Heidelberger CurriculumMedicinale - Ein modularer Reformstudiengang zur Umsetzungder neuen Approbationsordnung. Gesundheitswesen (SupplMedAusbild). 2003;20(Suppl2):87–91. Zugänglich unter/availablefrom: https://gesellschaft-medizinische-ausbildung.org/files/ZMA-Archiv/2003/2/Steiner_T,_JC3%BCnger_J,_Schmidt_J,_Bardenheuer_H,_Kirschfink_M,_Kadmon_M,_Schneider_G,_Seller_H,_Sonntag_HG.pdf

11. Schulze J, Drolshagen S, Nürnberger F, Ochsendorf F. Gestaltungdes klinischen Studiums nach den Vorgaben der neuen ÄrztlichenApprobationsordnung – Struktur und Organisation.Gesundheitswesen (Suppl Med Ausbild).2003;20(Suppl2):68–77. Zugänglich unter/available from:https://gesellschaft-medizinische-ausbildung.org/files/ZMA-Archiv/2003/2/Schulze_J,_Drolshagen_S,_N%C3%BCrnberger_F,_Ochsendorf_F.pdf

12. van den BusscheH. Lehren und Lernen amUKE - Die Umsetzungder Approbationsordnung für Ärzte in Hamburg. Z Allgemeinmed.2004;80:431–437. DOI: 10.1055/s-2004-820414

13. Huwendiek S, Kadmon M, Jünger J, Kirschfink M, Bosse HM,Resch F, Duelli R, Bardenhauer HJ, Sonntag HG, Steiner T.Umsetzung der deutschen Approbationsordnung 2002 immodularen Reformstudiengang Heidel- berger CurriculumMedicinale (HeiCuMed). ZfHE. 2008;3(3):17–27. Zugänglichunter/available from: http://www.zfhe.at/index.php/zfhe/article/view/70/75

14. Zeuner S, Henke T, Achilles E, Kampmeyer D, Schwanitz P. 36Different Ways To Study Medicine. GMS Z Med Ausbild.2010;27(2):Doc20. DOI: 10.3205/zma000657

15. Haage H. Das neue Medizinstudium. Aachen: Shaker Verlag;2003. S.320.

16. Fischer T, Simmenroth-Nayda A, Herrmann-Lingen C, Wetzel D,Chenot JF, Kleiber C, Staats H, Kochen MM. MedizinischeBasisfähigkeiten – ein Unterrichtskonzept im Rahmen der neuenApprobationsordnung. Z All Med. 2003;79:432–436. Zugänglichunter/available from: https://www.online-zfa.de/media/archive/2003/09/10.1055-s-2003-43063.pdf

17. Öchsner W, Forster J. Approbierte Ärzte - kompetente Ärzte? Dieneue Approbationsordnung für Ärzte als Grundlage fürkompetenzbasierte Curricula. GMS Z Med Ausbild.2005;22(1):Doc04. Zugänglich unter/available from: http://www.egms.de/static/de/journals/zma/2005-22/zma000004.shtml

18. Kulike K, Hilgers J, Störmann S, Hornung T, Dudziak J, WeinmannP, et al. Kerncurriculum für die Medizinische Ausbildung inDeutschland: Ein Vorschlag der MedizinstudierendenDeutschlands. GMS Z Med Ausbild. 2006;23(4):Doc58.Zugänglich unter/available from: http://www.egms.de/static/de/journals/zma/2006-23/zma000277.shtml

19. Schnabel KP, Boldt PD, Breuer G, Fichtner A, Karsten G,Kujumdshiev S, Schmidts M, Stosch C. Konsensusstatement"Praktische Fertigkeiten imMedizinstudium" – ein Positionspapierdes GMA-Ausschusses für praktische Fertigkeiten. GMS Z MedAusbild. 2011;28(4):Doc58. DOI: 10.3205/zma000770

14/16GMS Journal for Medical Education 2016, Vol. 33(4), ISSN 2366-5017

Störmann et al.: Wie gut beherrschen Studierende im Praktischen Jahr ...

Page 15: Howwelldofinalyearundergraduatemedicalstudents ... · terpretation of a chest X-ray during the respiratory teachingblock).Higher-levelskillssuchasclinicalde-cision-makingarepartoftheformationduringthefinal

20. Fischer MR, Bauer D, Mohn K. Endlich fertig! NationaleKompetenzbasierte Lernzielkataloge Medizin (NKLM) undZahnmedizin (NKLZ) gehen in die Erprobung. GMS ZMed Ausbild.2015;32(3):Doc35. DOI: 10.3205/zma000977

21. Jilg S, Möltner A, Berberat P, Fischer MR, Breckwoldt J. How doSupervising Clinicians of a University Hospital and AssociatedTeaching Hospitals Rate the Relevance of the Key Competencieswithin the CanMEDS Roles Framework in Respect to Teachingin Clinical Clerkships?? GMS ZMed Ausbild. 2015;32(3):Doc33.DOI: 10.3205/zma000975

22. Seyfarth M, Reincke M, Seyfarth J, Ring J, Fischer MR. Neueärztliche Approbationsordnung und Notengebung beim ZweitenStaatsexamen. Dtsch Arztebl Int. 2010;107(28-29):500–504.

23. Raupach T, Vogel D, Schiekirka S, Keijsers C, Cate O Ten,Harendza S. WissenszuwachsimPraktischen Jahr desMedizinstudiums in Deutschland. GMS Z Med Ausbild.2013;30(3):Doc33. DOI: 10.3205/zma000876

24. Schmidmaier R, Holzer M, Angstwurm M, Nouns Z, Reincke M,Fischer MR. Querschnittevaluation des MedizinischenCurriculums München (MeCuM) mit Hilfe des Progress TestsMedizin (PTM). GMS Z Med Ausbild. 2010;27(5):Doc70. DOI:10.3205/zma000707

25. Happel O, Papenfuß T, Kranke P. Schockraummanagement –Simulation, Teamtraining und Kommunikation für eine bessereTraumaversorgung TT - Training for real: simulation, team-trainingand communication to improve traumamanagement. AnästhesiolIntensivmed Notfallmed Schmerzther. 2010;45(06):408–415.DOI: 10.1055/s-0030-1255348

26. Ingham H, Luft J. The Johari Window: a graphic model forinterpersonal relations. Los Angeles: Proceedings of the westerntraining laboratory in group development; 1955.

27. Barnsley L, Lyon PM, Ralston SJ, Hibbert EJ, Cunningham I,Gordon FC, et al. Clinical skills in junior medical officers: Acomparison of self-reported confidence and observedcompetence. Med Educ. 2004;38(4):358–367. DOI:10.1046/j.1365-2923.2004.01773.x

28. Mavis B. Self-efficacy and OSCE performance among secondyear medical students. Adv Heal Sci Educ. 2001;6(2):93–102.DOI: 10.1023/A:1011404132508

29. Jünger J, Schellberg D, Nikendei C. SubjektiveKompetenzeinschätzung von Studierenden und ihre Leistung imOSCE. GMS Z Med Ausbild. 2006;23(3):Doc51. Zugänglichunter/available from: http://www.egms.de/static/de/journals/zma/2006-23/zma000270.shtml

30. Verghese A. A doctor's touch. Edinburgh: TEDGlobal2011; 2011.

31. Peitzman SJ, Cuddy MM. Performance in Physical Examinationon the USMLE Step 2 Clinical Skills Examination. Acad Med.2015;90(2):209–213. DOI: 10.1097/ACM.0000000000000570

32. Vukanovic-Criley JM, Criley S, Warde CM, Boker JR, Guevara-Matheus L, Churchill WH, Nelson WP, Criley JM. Competency incardiac examination skills in medical students, trainees,physicians, and faculty: a multicenter study. Arch Intern Med.2006;166(6):610–616. DOI: 10.1001/archinte.166.6.610

33. Engel C, Porsche M, Roth S, Ganschow P, Büchler MW, KadmonM. Welche Ausbildungsinhalte brauchen Studierende imPraktischen Jahr - Bedarfsanalyse als Basis für ein chirurgischesPJ-Curriculum. GMS Z Med Ausbild. 2008;25(3):Doc89.Zugänglich unter/available from: http://www.egms.de/static/de/journals/zma/2008-25/zma000573.shtml

34. RemmenR, Derese A, Scherpbier A, Denekens J, Hermann I, VanDer Vleuten C, et al. Can medical schools rely on clerkships totrain students in basic clinical skills? Med Educ.1999;33(8):600–605. DOI: 10.1046/j.1365-2923.1999.00467.x

35. Köhl-Hackert N, Krautter M, Andreesen S, Hoffmann K, HerzogW, Jünger J, Nikendei C. Lernen am späteren Arbeitsplatz: eineAnalyse studentischer Erwartungen an den Stationseinsatz imFachbereich der Inneren Medizin. GMS Z Med Ausbild.2014;31(4):Doc43. DOI: 10.3205/zma000935

36. Pugh D, Touchie C, Wood TJ, Humphrey-Murto S. Progress testing:is there a role for the OSCE? Med Educ. 2014;48(6):623–631.DOI: 10.1111/medu.12423

37. Pugh D, Touchie C, Humphrey-Murto S, Wood TJ. The OSCEprogress test – Measuring clinical skill development overresidency training. Med Teach. 2016;38(2):168-73. DOI:10.3109/0142159X.2015.1029895

38. Gold J, DeMuth R, Mavis B, Wagner D. Progress testing 2.0:clinical skills meets necessary science. Med Educ Online.2015;20.

39. Duvivier RJ, van Geel K, van Dalen J, Scherpbier AJJ a, van derVleuten CPM. Learning physical examination skills outsidetimetabled training sessions: what happens and why? Adv HealthSci Educ Theory Pract. 2012;17(3):339–355. DOI:10.1007/s10459-011-9312-5

40. Blohm M, Lauter J, Branchereau S, Krauter M, Köhl-Hackert N,Jünger J, Herzog W, Nikendei C. "Peer-Assisted Learning" (PAL)im Skills-Lab – eine Bestandsaufnahme an den MedizinischenFakultäten der Bundesrepublik Deutschland. GMS ZMed Ausbild.2015;32(1):Doc10. DOI: 10.3205/zma000952

41. Profanter C, Perathoner A. DOPS (Direct Observation ofProcedural Skills) im studentischen Skills-Lab: Funktioniert das?Eine Analyse der Performanz klinischer Fertigkeiten und dercurricularen Nebeneffekte. GMS Z Med Ausbild.2015;32(4):Doc45. DOI: 10.3205/zma000987

42. Yu TC, Wilson NC, Singh PP, Lemanu DP, Hawken SJ, Hill AG.Medical students-as-teachers: a systematic review of peer-assisted teaching during medical school. Adv Med Educ Pract.2011;2:157–172.

43. Weyrich P, Celebi N, SchrauthM, Möltner A, Lammerding-KöppelM, Nikendei C. Peer-assisted versus faculty staff-led skillslaboratory training: a randomised controlled trial. Med Educ.2009;43(2):113–120. DOI: 10.1111/j.1365-2923.2008.03252.x

44. Herrmann-Werner A, Nikendei C, Keifenheim K, Bosse HM, LundF, Wagner R, Celebi N, Zipfel S, Weyrich P. "Best Practice" SkillsLab Training vs. a "see one, do one" Approach in UndergraduateMedical Education: An RCT on Students' Long-Term Ability toPerform Procedural Clinical Skills. PLoS One. 2013;8(9):1–13.DOI: 10.1371/journal.pone.0076354

45. Buss B, Krautter M, Mo¨ltner A, Weyrich P, Werner A, Ju¨nger J,Nikendei C. Der "Assessment Drives Learning"-Effekt beimTraining klinisch-praktischer Fertigkeiten - Implikationen für dieCurriculumsgestaltung und die Planung von RessourcenZusammenfassung. GMS Z Med Ausbild. 2012;29(5):Doc70.DOI: 10.3205/zma000840

46. Raes P, Angstwurm M, Berberat P, Kadmon M, Rotgans J,Streitlein-Böhme I, Burckhardt G, Fischer MR.Qualitätsmanagement der klinisch-praktischenAusbildung imPraktischen Jahr des Medizinstudiums – Vorschlag einesKriterienkatalogs der Gesellschaft für Medizinische Ausbildung.GMS Z Med Ausbild. 2014;31(4):Doc49. DOI:10.3205/zma00094

47. Bouwmans GA, Denessen E, Hettinga AM,Michels C, Postma CT.Reliability and validity of an extended clinical examination. MedTeach. 2015;37(12):1072-1077. DOI:10.3109/0142159x.2015.1009423

15/16GMS Journal for Medical Education 2016, Vol. 33(4), ISSN 2366-5017

Störmann et al.: Wie gut beherrschen Studierende im Praktischen Jahr ...

Page 16: Howwelldofinalyearundergraduatemedicalstudents ... · terpretation of a chest X-ray during the respiratory teachingblock).Higher-levelskillssuchasclinicalde-cision-makingarepartoftheformationduringthefinal

48. Brown C, Ross S, Cleland J, Walsh K. Money makes the (medicalassessment) world go round: The cost of components of asummative final year Objective Structured Clinical Examination(OSCE). Med Teach. 2015;37(7):653-659. DOI:10.3109/0142159x.2015.1033389

49. Rau T, Fegert J, Liebhardt H. Wie hoch liegen die Personalkostenfür die Durchführung einer OSCE? Eine Kostenaufstellung nachbetriebswirtschaftlichen Gesichtspunkten. GMS Z Med Ausbild.2011;28(1):Doc13. DOI: 10.3205/zma000725

50. Kraus B, Briem S, Jünger J, Schrauth M, Weyrich P, Herzog W,Zipfel S, Nikendei C. Entwicklung und Evaluation einesSchulungsprogramms für Studenten im Praktischen Jahr in derInneren Medizin. GMS Z Med Ausbild. 2006;23(4):Doc70.Zugänglich unter/available from: http://www.egms.de/static/de/journals/zma/2006-23/zma000289.shtml

51. Yates J. Development of a "toolkit" to identify medical studentsat risk of failure to thrive on the course: an exploratoryretrospective case study. BMC Med Educ. 2011;11(1):95. DOI:10.1186/1472-6920-11-95

52. Winston KA, van der Vleuten CP, Scherpbier AJ. Prediction andprevention of failure: An early intervention to assist at-riskmedical students. Med Teach. 2014;36(1):25–31. DOI:10.3109/0142159X.2013.836270

53. Bosse HM, Mohr J, Buss B, Krautter M, Weyrich P, Herzog W,Jünger J, Nikendei C. The benefit of repetitive skills training andfrequency of expert feedback in the early acquisition ofprocedural skills. BMC Med Educ. 2015;15(1):22. DOI:10.1186/s12909-015-0286-5

54. Van Der Vleuten CP, Schuwirth LW. Assessing professionalcompetence: From methods to programmes. Med Educ.2005;39(3):309–317. DOI: 10.1111/j.1365-2929.2005.02094.x

55. Epstein RM. Medical education - Assessment in medicaleducation. N Engl J Med. 2007;356(4):387–396. DOI:10.1056/NEJMra054784

56. Norcini J, Burch V. Workplace-based assessment as aneducational tool: AMEE Guide No. 31. Med Teach.2007;29(9):855–871. DOI: 10.1080/01421590701775453

57. Abadel FT, Hattab AS. How does the medical graduates' self-assessment of their clinical competency differ from experts'assessment? BMC Med Educ. BMC Med Educ. 2013;13(1):24.DOI: 10.1186/1472-6920-13-24

58. Falchikov N. Student self-assessment in higher education: Ameta-analysis. Rev Educ Res. 1989;59(359):394–430. DOI:10.3102/00346543059004395

59. Davis DA, Mazmanian PE, Fordis M, Van Harrison R, Thorpe KE,Perrier L. Accuracy of Physician Self-assessment ComparedWithObserved Measures of Competence. JAMA. 2006;296(9):1094.DOI: 10.1001/jama.296.9.1094

60. Berner ES, Graber ML. Overconfidence as a cause of diagnosticerror in medicine. Am J Med. 2008;121(5 Suppl):S2–23.

61. Cavalcanti RB, Sibbald M. Am I right when I am sure? Dataconsistency influences the relationship between diagnosticaccuracy and certainty. Acad Med. 2014;89(1):107–113. DOI:10.1097/ACM.0000000000000074

62. Verghese A, Charlton B, Kassirer JP, Ramsey M, Ioannidis JP.Inadequacies of Physical Examination as a Cause of MedicalErrors and Adverse Events: A Collection of Vignettes. Am J Med.2015;128(12):1322-1324. DOI:10.1016/j.amjmed.2015.06.004

63. Lane JL, Gottlieb RP. Improving the interviewing and self-assessment skills of medical students: is it time to readoptvideotaping as an educational tool? Ambul Pediatr.2004;4(3):244–248. DOI: 10.1367/A03-122R1.1

64. Hawkins SC, Osborne A, Schofield SJ, Pournaras DJ, Chester JF.Improving the accuracy of self-assessment of practical clinicalskills using video feedback – The importance of includingbenchmarks. Med Teach. 2012;34(4):279–284. DOI:10.3109/0142159X.2012.658897

65. Eva KW, Armson H, Holmboe E, Lockyer J, Loney E, Mann K,Sargeant J. Factors influencing responsiveness to feedback: onthe interplay between fear, confidence, and reasoning processes.Adv Health Sci Educ Theory Pract. 2012;17(1):15–26. DOI:10.1007/s10459-011-9290-7

Korrespondenzadresse:Sylvère StörmannKlinikum der Universität München, Medizinische Klinikund Poliklinik IV, Ziemssenstraße 1, 80336 München,Deutschland, Tel.: +49 (0)89/4400-52318, Fax: +49(0)89/[email protected]

Bitte zitieren alsStörmann S, Stankiewicz M, Raes P, Berchtold C, Kosanke Y, Illes G,Loose P, AngstwurmMW. Howwell do final year undergraduatemedicalstudents master practical clinical skills? GMS J Med Educ.2016;33(4):Doc58.DOI: 10.3205/zma001057, URN: urn:nbn:de:0183-zma0010578

Artikel online frei zugänglich unterhttp://www.egms.de/en/journals/zma/2016-33/zma001057.shtml

Eingereicht: 30.09.2015Überarbeitet: 11.03.2016Angenommen: 10.05.2016Veröffentlicht: 15.08.2016

Copyright©2016 Störmann et al. Dieser Artikel ist ein Open-Access-Artikel undsteht unter den Lizenzbedingungen der Creative Commons Attribution4.0 License (Namensnennung). Lizenz-Angaben siehehttp://creativecommons.org/licenses/by/4.0/.

16/16GMS Journal for Medical Education 2016, Vol. 33(4), ISSN 2366-5017

Störmann et al.: Wie gut beherrschen Studierende im Praktischen Jahr ...