Il corso si propone di fornire gli strumenti matematici fondamentali per affrontare tecniche avanzate di analisi dei dati, attraverso lo studio dell'algebra lineare. Dopo un'introduzione al concetto di modello matematico e una motivazione all'uso dell'algebra lineare tramite la rappresentazione matriciale dei dataset, vengono richiamati i principali concetti teorici: spazi vettoriali, sottospazi, indipendenza lineare, basi, distanza, norma e prodotto scalare.
In una seconda fase, il corso introduce i modelli lineari e affronta il problema della stima dei parametri tramite lo studio delle proiezioni ortogonali e l'applicazione del metodo dei minimi quadrati. Tali strumenti vengono applicati alla regressione lineare, sia semplice che multipla, e al problema del curve fitting.
A seguire, viene trattata la Principal Component Analysis (PCA), una tecnica fondamentale per l'analisi di dataset ad alta dimensionalità. In questo contesto, si approfondiscono i problemi agli autovalori e le proprietà spettrali delle matrici, che costituiscono la base teorica per l'implementazione della PCA. Le lezioni teoriche sono integrate con l'analisi di casi di studio e con esercitazioni pratiche mediante l'uso del software MATLAB, allo scopo di rafforzare la comprensione applicativa dei concetti trattati. È previsto lo svolgimento di un assignment finale per consolidare le competenze acquisite.

Il corso si propone di omogeneizzare le conoscenze dei dottorandi su metodologie statistiche avanzate di particolare rilievo per le scienze economico-aziendali, con un focus su tecniche applicabili all'analisi di big data.

La struttura del corso è articolata in due moduli.

Il primo modulo è dedicato a modelli statistici e algoritmi orientati alla previsione e alla segmentazione. Le principali metodologie affrontate includono:

  • misure di associazione e regole di associazione, con applicazioni alla Market Basket Analysis;
  • modello di regressione lineare, trattato sia negli aspetti inferenziali classici sia nelle tecniche diagnostiche per eventuali violazioni delle assunzioni;
  • modello di regressione logistica, con particolare attenzione all'uso predittivo sul comportamento individuale;
  • alberi di classificazione, con approfondimenti su overfitting e stima del tasso di errore;
  • analisi fattoriale esplorativa e analisi delle componenti principali;
  • cluster analysis, con tecniche gerarchiche e non gerarchiche.

Tutte le metodologie sono illustrate attraverso esempi applicativi in ambito economico e aziendale.

Il secondo modulo si concentra sull'uso dei principali software statistici, con particolare riferimento al linguaggio R. L'attenzione è rivolta all'analisi diagnostica nei modelli di regressione multipla, anche in presenza di dati caratterizzati da stagionalità. Sono inoltre proposti case studies relativi a regressione logistica e alberi di regressione.

Durante le esercitazioni pratiche, gli studenti applicano quanto appreso nella parte teorica. È previsto lo svolgimento di un assignment finale per consolidare le competenze acquisite.

Il corso si propone di approfondire tecniche avanzate per l’analisi econometrica dei dati, con particolare attenzione ai modelli panel e alle interazioni tra variabili.

Nella prima parte vengono esaminate le specificazioni funzionali che prevedono l’utilizzo di variabili dummy, interazioni tra variabili continue, tra dummy e tra variabili continue e categoriali, nonché gli effetti quadratici delle variabili numeriche. Questi strumenti consentono di modellare in modo più flessibile relazioni complesse tra variabili esplicative e risposta.

La seconda parte del corso è dedicata ai modelli panel, con distinzione tra panel bilanciati e non bilanciati. Sono analizzati i modelli pooled OLS, a effetti fissi e a effetti casuali, discutendone le assunzioni sottostanti e i criteri di scelta. Una particolare attenzione è rivolta ai modelli a effetti fissi, ampiamente utilizzati nelle scienze economico-sociali per controllare l’eterogeneità non osservabile.

La parte finale introduce i modelli panel dinamici e le tecniche di valutazione causale, in particolare il modello di Difference in Difference (DiD). Vengono discusse l’assunzione del trend parallelo, le implicazioni dell’adozione di trattamenti multipli in diversi momenti temporali e le criticità associate alla stima di tali modelli. L’approccio didattico integra teoria e applicazioni, con l’obiettivo di fornire ai dottorandi competenze utili per la ricerca empirica avanzata e per l’analisi di dati longitudinali complessi in contesti economici e manageriali. È previsto lo svolgimento di un assignment finale per consolidare le competenze acquisite.

Il corso si propone di introdurre i dottorandi allo studio della causalità in economia, offrendo una panoramica teorica e applicata delle principali metodologie impiegate per l’identificazione degli effetti causali nelle scienze sociali. Si parte da una riflessione sul concetto di causa nella storia del pensiero economico e si prosegue con l’analisi di esempi pratici che hanno avuto un impatto rilevante nel dibattito accademico e nelle politiche pubbliche.
Il corso presenta le Randomised Controlled Trials (RCTs) come gold standard per l’identificazione causale, illustrandone i vantaggi e i limiti, soprattutto in contesti economici reali. In seguito, vengono trattate le principali tecniche quasi-sperimentali, che permettono di stimare effetti causali anche in assenza di randomizzazione.
Tra queste metodologie si approfondiscono:

  • i metodi di matching, utilizzati per costruire gruppi di controllo comparabili
  • le variabili str strumentali (IV), impiegate per affrontare il problema dell’endogeneità
  • il Regression Discontinuity Design (RDD), utile nei contesti con soglie di assegnazione
  • il Difference-in-Differences (DiD), una tecnica ampiamente usata per valutare politiche pubbliche attraverso dati panel
  • il più recente Staggered DiD, adatto a trattamenti distribuiti nel tempo
  • il Synthetic Control Method (SCM), particolarmente efficace per valutazioni ex-post in contesti aggregati e con pochi trattamenti

L’approccio didattico integra teoria e applicazioni empiriche, con l’obiettivo di fornire ai dottorandi gli strumenti concettuali e operativi per costruire analisi causali rigorose, a supporto della ricerca scientifica e della valutazione di interventi economici e manageriali.
È previsto lo svolgimento di un assignment finale per consolidare le competenze acquisite.

Il corso ha l’obiettivo di fornire ai dottorandi conoscenze e strumenti fondamentali per orientarsi nei processi di pubblicazione scientifica e nell’analisi sistematica della letteratura attraverso l’uso delle banche dati. 

L’attività formativa è articolata in tre parti principali.

La prima parte è dedicata alla comprensione del ruolo strategico delle pubblicazioni per l’avanzamento della conoscenza scientifica e lo sviluppo della carriera accademica. Vengono approfondite le principali tipologie di pubblicazione, la struttura di un articolo scientifico, i criteri di scelta della rivista e le fasi del processo di peer review. I contenuti sono arricchiti dal confronto con le esperienze dirette dei dottorandi, promuovendo uno scambio formativo tra pari.

La seconda parte è incentrata sulla realizzazione di una literature review efficace. Si affrontano le modalità di ricerca bibliografica, a partire dalla definizione delle parole chiave fino all’utilizzo delle principali banche dati scientificheaccessibili tramite l’Università di Parma (tra cui EBSCOhost, Emerald, ESSPER) e altre risorse online (come ResearchGate, Academia.edu, ScienceOpen, Iris, Il Sole 24 Ore). Sono inoltre presentati i principali software per la gestione bibliografica, in particolare Zotero e Mendeley Cite.

È previsto un momento di esercitazione pratica per familiarizzare con le risorse documentarie illustrate e applicarle a ricerche individuali o tematiche condivise.
Il corso si conclude con un seminario dedicato alla pubblicazione scientifica in ottica contemporanea, con focus su Open Science, Open Access e FAIR Data, per sensibilizzare i partecipanti alle dinamiche etiche, tecniche e politiche dell’ecosistema editoriale della ricerca.

Il corso ha l’obiettivo di fornire ai dottorandi conoscenze teoriche e strumenti applicativi per la conduzione di revisioni sistematiche della letteratura secondo un approccio integrato quali-quantitativo. Particolare attenzione sarà dedicata alla progettazione di revisioni strutturate, alla formulazione delle domande di ricerca, alla definizione dei criteri di selezione degli studi e alle modalità di analisi e sintesi dei risultati.
Il percorso prevede l’approfondimento dell’utilizzo di due strumenti open source ampiamente adottati nella ricerca  internazionale: VOSviewer e SciMAT. Il primo sarà impiegato per la costruzione e visualizzazione di mappe bibliometriche, basate su co-citazioni, co-occurrence di termini e collaborazioni tra autori. Il secondo, SciMAT, verrà utilizzato per realizzare analisi bibliometriche longitudinali, con l’obiettivo di mappare l’evoluzione tematica e la struttura cognitiva di un filone di ricerca nel tempo.
Attraverso esercitazioni pratiche e l’analisi guidata di casi studio, i dottorandi avranno l’opportunità di applicare le metodologie apprese alla realizzazione di una propria revisione sistematica, finalizzata a supportare la costruzione teorica del progetto di dottorato e l’inquadramento del proprio contributo di ricerca nel panorama scientifico di riferimento.

Il corso ha l’obiettivo di guidare i dottorandi nella costruzione di un progetto scientifico coerente e ben strutturato, a partire da un tema di ricerca già individuato. L’attenzione è rivolta in primo luogo alla formulazione della domanda di ricerca, alla sua coerenza logica e al collegamento con gli obiettivi dell’indagine.
Viene quindi approfondita la progettazione del disegno metodologico, intesa come scelta strategica di approcci e strumenti per affrontare il problema di studio. Il percorso didattico offre una panoramica ragionata sulle principali tecniche di indagine, distinguendo tra metodi consolidati e approcci alternativi.
Tra le tecniche standard si trattano i metodi quantitativi più diffusi, come il questionario strutturato, l’esperimento e l’analisi dei documenti. Per quanto riguarda quelle non standard, si introducono metodologie qualitative quali interviste, focus group, osservazione etnografica.
Il corso è concepito per rafforzare la capacità dei dottorandi di operare scelte metodologiche consapevoli, in linea con gli obiettivi del progetto e il contesto scientifico di riferimento. Le lezioni combinano contributi teorici con esempi applicativi, promuovendo una riflessione critica sull’intero processo di ricerca.

Il corso offre ai dottorandi un'introduzione sia pratica che teorica alla ricerca qualitativa, con un focus particolare sulla  progettazione e conduzione di interviste semi-strutturate e focus group. Attraverso una combinazione di lezioni frontali, esercitazioni pratiche e analisi di casi reali, i partecipanti acquisiranno le competenze necessarie per definire obiettivi di ricerca chiari, redigere guide d'intervista efficaci, gestire in modo consapevole le dinamiche di gruppo e analizzare i dati raccolti con rigore metodologico. Il corso mira a favorire l'integrazione  dei metodi qualitativi nelle ricerche di management, incoraggiando un approccio critico alla raccolta e all'interpretazione dei dati, e garantendo al contempo credibilità, trasferibilità e coerenza scientifica. Verranno inoltre sviluppate competenze operative nella trascrizione, codifica e interpretazione dei materiali qualitativi, con l'obiettivo di promuovere la produzione di deliverable concreti come guide d'intervista e protocolli di focus group.
Durante gli incontri si affronteranno i fondamenti della ricerca qualitativa, analizzando i paradigmi epistemologici di riferimento, i criteri di qualità e i principali ambiti di applicazione delle interviste e dei focus group. Si approfondirà la progettazione dell'intervista qualitativa, con particolare attenzione alla definizione degli obiettivi, alla strutturazione della guida semi-strutturata e alla formulazione di domande aperte. Verranno illustrate tecniche per la conduzione delle interviste, soffermandosi sulla costruzione del rapporto con l'intervistato, l'ascolto attivo, la gestione dei silenzi e le considerazioni etiche. Una parte rilevante sarà dedicata alla trascrizione e alla codifica dei dati, attraverso l'uso di standard condivisi, tecniche di codifica aperta, assiale e selettiva, nonché l'impiego di software dedicati. Saranno infine approfonditi gli aspetti teorici e pratici legati ai focus group.

Il corso introduce i dottorandi al campo del text mining, un’area di frontiera che si colloca all’intersezione tra big data, linguistica computazionale e intelligenza artificiale. L’obiettivo è fornire le basi teoriche e pratiche per analizzare grandi quantità di testo in modo automatizzato, estrarre informazioni rilevanti e supportare la ricerca empirica nei contesti economico-sociali, aziendali e comunicativi.
Nella prima parte del corso si affrontano i fondamenti del Natural Language Processing (NLP), con riferimento agli aspetti sintattici e semantici del linguaggio e alle tecniche di preprocessing del testo, come tokenizzazione, rimozione di stopwords e normalizzazione.
Segue l’esplorazione degli approcci lessicali, che prevedono l’impiego di dizionari predefiniti o la costruzione di vocabolari personalizzati per misurare la presenza di concetti o toni specifici nei documenti.
Una parte del corso è dedicata al machine learning supervisionato, in cui i testi vengono classificati in categorie predefinite, mentre un altro segmento esplora le tecniche non supervisionate, come il clustering e l’estrazione automatica di argomenti (topic modeling), per scoprire pattern latenti nei dati testuali.
Attraverso esempi ed esercitazioni, il corso permette ai partecipanti di acquisire strumenti utili per integrare l’analisi dei contenuti testuali nei propri progetti di ricerca.
È previsto lo svolgimento di un assignment finale che verterà sulla preparazione di una presentazione in cui venga mostrata l'applicazione di una delle tecniche di analisi del testo presentati durante il corso.

Il corso si propone di ampliare la conoscenza dei dottorandi sulla raccolta e l’analisi di dati primari mediante diverse tecniche di ricerca quantitativa. In particolare, si articola in due moduli.
Modulo 1 – QUESTIONARIO STRUTTURATO
Il modulo si focalizza sull’utilizzo del questionario strutturato come strumento per la raccolta di dati primari e sulle principali modalità di analisi, con particolare attenzione alla valutazione della validità e dell’affidabilità del modello di misurazione. Durante le lezioni si discutono e illustrano articoli tratti dalla letteratura scientifica e si fa riferimento all’impiego di software per l’analisi dei dati. Alla parte teorica si affianca un’attività pratica in cui gli studenti sviluppano alcune fasi della progettazione di un questionario strutturato.
Modulo 2 – RICERCA SPERIMENTALE
Il secondo modulo si concentra sulla metodologia sperimentale e quasi-sperimentale, con l’obiettivo di comprendere il processo di costruzione di un protocollo, le tipologie di dati raccolti e le tecniche di analisi di base. Le lezioni includono la discussione di contributi scientifici pubblicati e l’uso di software dedicati. Alla parte teorica si affianca un’attività pratica in cui gli studenti progettano un disegno sperimentale, applicando quanto appreso.

Il corso fornisce un'introduzione alle tecniche di Structural Equation Modeling (SEM), con attenzione sia agli aspetti teorici sia all'implementazione pratica in R. La SEM integra analisi fattoriale e regressione per modellare relazioni tra variabili osservate e latenti, rappresentando uno strumento efficace per analisi strutturali complesse.

Il corso inizia con una panoramica generale sulla logica e gli usi della SEM, includendo la specificazione dei modelli tramite path diagram e notazione matriciale. Vengono introdotti concetti fondamentali come variabili latenti, identificazione e stima dei sistemi di equazioni. 
Segue un approfondimento sull'analisi fattoriale, con l'utilizzo del pacchetto R lavaan, focalizzandosi sulla valutazione dell'adattamento del modello (model fit), interpretazione dei risultati e raffinamento del modello.

La seconda parte è dedicata all'analisi SEM completa, che integra analisi fattoriale e regressione. Si trattano temi come mediazione, effetti diretti, indiretti e totali, oltre a buone pratiche nella presentazione dei risultati e insidie comuni da evitare. Durante le esercitazioni pratiche, gli studenti lavoreranno su dati reali, imparando a specificare, stimare e interpretare modelli SEM in R. Al termine, saranno in grado di applicare criticamente queste tecniche alle proprie domande di ricerca.
Non è richiesta una conoscenza pregressa della SEM, ma si assume familiarità con la regressione (semplice e multipla) e l'uso di R.

ll corso introduce due principali famiglie di modelli econometrici per l'analisi delle serie storiche: i modelli dinamici per la media condizionata e i modelli di volatilità per la varianza condizionata. Questi metodi sono utilizzati per affrontare diverse problematiche econometriche che si riscontrano frequentemente nelle applicazioni empiriche, come la persistenza, la correlazione seriale e la volatilità variabile nel tempo. I concetti chiave verranno discussi e illustrati tramite esempi su dati reali utilizzando software statistici.

Modelli AR, MA e ARMA
Questa unità introduce i modelli autoregressivi (AR), a media mobile (MA) e i modelli combinati ARMA. La sezione tratta anche le proprietà fondamentali dei processi stocastici. Viene data particolare enfasi alle proprietà di stazionarietà, alla cointegrazione e alle implicazioni che queste comportano per il processo di stima. Le applicazioni pratiche saranno illustrate con un focus particolare sull’interpretazione economica dei risultati.

Modelli ARCH
Questa unità presenta i modelli di eteroschedasticità condizionata autoregressiva (ARCH) come approccio standard per catturare la volatilità variabile nel tempo. Le applicazioni includono la modellizzazione dei rendimenti finanziari e dell'incertezza macroeconomica. Le procedure di stima e le analisi diagnostiche saranno illustrate tramite applicazioni pratiche.

Modelli GARCH
Questa sezione estende il framework ARCH permettendo una dipendenza tra la varianza condizionata attuale e i suoi valori passati. Il modello ARCH Generalizzato (GARCH) offre un quadro più flessibile per catturare la volatilità persistente. Gli studenti apprenderanno come identificare e interpretare la persistenza della volatilità, la reversione alla media e le implicazioni per la previsione del rischio. Le applicazioni pratiche verranno utilizzate per stimare i modelli GARCH, con particolare attenzione all’interpretazione della volatilità in risposta a eventi economici o finanziari.
Materiale di lettura: Enders, W. 2014. Applied Econometric Time Series. 4a ed. Hoboken, NJ: John Wiley & Sons.
Ulteriore materiale sarà fornito dal docente durante il corso.

Il corso si propone di introdurre i dottorandi ai fondamenti della programmazione in Python e all’uso di LaTeX per la redazione di testi scientifici, con un’attenzione specifica agli strumenti utili per l’analisi e la presentazione dei dati. 
Le attività sono strutturate in forma interattiva e adattate agli interessi e alle necessità di ricerca dei partecipanti, con un’alternanza costante tra spiegazione teorica e applicazione pratica. 
Per quanto riguarda Python, il corso affronta l’apprendimento della sintassi di base, delle principali strutture dati (come liste, dizionari e tuple), della gestione del flusso di controllo, dell’input/output e dei concetti introduttivi di programmazione a oggetti. Viene inoltre introdotto l’utilizzo delle librerie NumPy e pandas per la manipolazione di dataset e per la gestione di operazioni numeriche e tabelle, nonché le funzionalità grafiche di base per la rappresentazione dei dati.
La seconda parte del corso è dedicata a LaTeX, con un’introduzione alla scrittura e compilazione di documenti scientifici. Si affrontano gli aspetti pratici legati all’inserimento di figure e tabelle, all’uso dei riferimenti incrociati per sezioni, formule ed elementi numerati, fino alla gestione automatica della bibliografia attraverso strumenti di citazione standard.

Il primo modulo si focalizza sui fondamenti epistemologici della ricerca in economia e management. Vengono analizzati i principali paradigmi scientifici: positivismo e post-positivismo, costruttivismo e interpretativismo, realismo critico e pragmatismo. Il modulo approfondisce la relazione tra approcci epistemologici alla ricerca e metodologie quantitative e qualitative, superando i falsi dilemmi epistemologici.

Il secondo modulo si concentra sull'etica della ricerca, affrontando i principi fondamentali dell'integrità scientifica e del misconduct. Vengono discusse le problematiche relative all'etica editoriale, ai predatory journals, alla reproducibility crisis e alle pratiche di open science.

Il terzo modulo è dedicato alla divulgazione scientifica e alla comunicazione della ricerca. Il modulo copre la scrittura efficace di paper e l'uso di piattaforme web per la visibilità scientifica. Vengono approfondite le questioni riguardanti le classificazioni delle riviste e ai diversi outlet di pubblicazione di ricerche scientifiche.
Durante le lezioni vengono discussi casi studio reali e vengono illustrati esempi di best practices e di criticità nella conduzione e comunicazione della ricerca. I dottorandi sono coinvolti in esercitazioni pratiche.
Al termine del corso, i dottorandi devono consegnare breve scritto (3.000 caratteri circa) su una loro ricerca in corso dimostrando capacità di analisi epistemologica, consapevolezza etica e competenze comunicative.

Il corso approfondisce le principali teorie che guidano la ricerca nei tre ambiti chiave del management. 

Il modulo di economia aziendale propone un’analisi delle teorie applicate allo studio dell’accounting e della corporate governance, tra cui Agency Theory, Shareholder Theory, Stakeholder Theory, Institutional Theory, Contingency Theory, Resource Based View, Identity Theory, Social Identity Theory e Learning and Independence Theory in Auditing.

Il modulo di finanza affronta le principali teorie relative all’intermediazione finanziaria, ai canali di trasmissione della politica monetaria e all’efficienza dei mercati, con un focus sull’efficienza informativa e sul ruolo delle banche nella riduzione delle asimmetrie informative. Vengono inoltre trattate le teorie della behavioral finance, in particolare l’overconfidence, analizzata anche nei suoi metodi di misurazione. Il modulo include anche la teoria del ciclo di vita dell’impresa, con attenzione ai fabbisogni finanziari delle diverse fasi, in particolare della startup, e la teoria della struttura finanziaria, dal teorema di Modigliani-Miller alle teorie del Trade-off, Pecking Order e Market Timing.

Il modulo di marketing si concentra sulle teorie più utilizzate in ambito services marketing, retailing e advertising, tra cui Social Exchange Theory, Justice Theory, Attribution Theory, Trust Transfer Theory, SOR Model, Categorization Theory, Elaboration Likelihood Model, Hierarchy of Effects Model, Signalling Theory e Regulatory Focus Theory. L’analisi teorica sarà accompagnata da discussione critica di articoli scientifici internazionali, con l’obiettivo di sviluppare nei dottorandi capacità di riflessione teorica e applicazione delle teorie ai propri ambiti di ricerca.

Il corso ha l'obiettivo di approfondire la struttura della teoria dell'equilibrio generale, con particolare riferimento all'approccio neoclassico. L'analisi dei diversi modelli è essenziale per comprendere i meccanismi attraverso cui le economie allocano risorse e distribuiscono il reddito nel tempo. Lo studio si articolerà in fasi di crescente complessità, affrontando inizialmente il modello dello scambio, seguito dal modello di produzione con input primari non riproducibili e, successivamente, da quello
con input riproducibili (modelli di equilibrio generale intertemporale e temporaneo).
In conclusione, quest'ultimo sarà messo a confronto con il modello classico di equilibrio generale fondato sull'accumulazione e l'allocazione del surplus della produzione. È previsto un assignment finale volto a consolidare le competenze acquisite.

Il corso affronta inizialmente il tema dell'utilità attesa e dell'avversione al rischio, analizzando le preferenze Von Neumann-Morgenstern, il premio per il rischio e l'equivalente certo, le principali misure di avversione al rischio e le preferenze rispetto a diversi tipi di variazione del rischio. In una seconda fase, l'attenzione si concentra su applicazioni a problemi economici rilevanti, quali il risparmio precauzionale, il modello standard di portafoglio, il CCAPM e la self-protection.
Infine, il corso si focalizza sull'asset pricing, con l'obiettivo di fornire ai dottorandi gli strumenti teorici di base per avviare una ricerca empirica sulla determinazione dei prezzi delle attività finanziarie, utilizzando il framework del factor investing sviluppato da Fama e French.

Il corso ha l'obiettivo di fornire ai dottorandi una comprensione di base delle complesse interrelazioni tra sostenibilità, sistema economico, gestione aziendale e dinamiche sociali. Il corso mira a sviluppare competenze critiche per analizzare modelli di business sostenibili e per comprendere il ruolo delle imprese e del sistema economico nella transizione verso un'economia circolare e responsabile dal punto di vista sociale.
Il corso introduce i fondamenti teorici della sostenibilità economica e aziendale. Vengono analizzati i principali framework teorici: la teoria degli stakeholder e la creazione di valore condiviso, i modelli di economia circolare e lineare, il concetto di triple bottom line e i suoi sviluppi contemporanei. Il modulo approfondisce l'evoluzione del pensiero economico verso la sostenibilità, analizzando contributi provenienti anche da altre discipline (ad esempio sociologia e psicologia). Particolare attenzione è dedicata ai trade-off e alle sinergie tra performance economica, sociale e ambientale. Vengono inoltre approfondite le relazioni tra aziende, economia e società nel contesto della sostenibilità. 
Durante le lezioni vengono discussi casi studio internazionali e vengono illustrati esempi di best practices aziendali nella gestione della sostenibilità. I dottorandi sono coinvolti in esercitazioni pratiche.
Al termine del corso, i dottorandi devono arricchire o implementare in un loro progetto di ricerca elementi, teorie, dati, domande di ricerca che integrino aspetti economici, ambientali e sociali della sostenibilità, dimostrando capacità di analisi multidisciplinare e di applicazione pratica dei concetti teorici. La valutazione finale considera la qualità del progetto di ricerca consegnato e la sua inerenza con i temi trattati.

Il corso si propone di integrare la formazione accademica dei dottorandi con competenze trasversali essenziali per costruire un percorso professionale efficace, sia all’interno del mondo universitario sia in ambiti extra-accademici. Essere ricercatori di successo oggi richiede, oltre a solide capacità scientifiche, anche abilità nella comunicazione, nel posizionamento professionale e nell’utilizzo strategico degli strumenti digitali.

Le prime due giornate sono dedicate allo sviluppo della carriera, alla costruzione dell’identità accademica e alla comunicazione professionale. Il primo giorno affronta la definizione degli obiettivi di lungo periodo, la gestione delle candidature nel mondo accademico (CV, application, colloqui) e le strategie per affrontare con successo i primi anni di carriera, mantenendo l’equilibrio tra vita personale e lavoro. Il secondo giorno amplia il focus su temi quali il personal branding, la  professionalità digitale, il networking e il public engagement. Viene inoltre esplorato l’uso dell’intelligenza artificiale e di strumenti digitali per rafforzare la propria visibilità scientifica. Le attività includono workshop pratici per la costruzione di una strategia di comunicazione mirata e la creazione di contenuti digitali personalizzati.

La terza giornata introduce i partecipanti al mondo dei big data applicati alla ricerca in ambito aziendale. Viene illustrata la differenza tra approcci tradizionali e data-driven, con particolare attenzione al text mining e all’utilizzo di strumenti di ascolto digitale per l’analisi di trend. I partecipanti apprendono come impiegare i big data per la scoperta di temi di ricerca e per lo sviluppo di revisioni sistematiche della letteratura, anche attraverso una dimostrazione pratica su come condurre una text-mining literature review.

Modificato il

Contenuti correlati

Advanced Research in Economics and Management Offerta formativa

Il primo anno del Corso di Dottorato  è dedicato all’acquisizione delle conoscenze di base necessarie a strutturare un progetto di ricerca solido e coerente. Le...
Scopri di piùAdvanced Research in Economics and Management Offerta formativa

Advanced Research in Economics and Management

Per l'anno accademico 2025/2026, è stato attivato un nuovo corso di dottorato dal titolo Advanced Research in Economics and Management in Convenzione con l'Università Cattolica...
Scopri di piùAdvanced Research in Economics and Management