This commit is contained in:
Claudio Maggioni 2021-05-19 18:55:09 +02:00
parent 8be7cff565
commit e6f219b085
3 changed files with 42 additions and 2 deletions

Binary file not shown.

View file

@ -79,8 +79,7 @@ old analysis to understand even better the causes of failures and how to prevent
them. Additionally, this report will provide an overview on the data engineering
tecniques used to perform the queries and analyses on the 2019 traces.
\hypertarget{state-of-the-art}{%
\section{State of the Art}\label{state-of-the-art}}
\section{Background information}
\hypertarget{introduction}{%
\subsection{Introduction}\label{introduction}}

41
report/sistemare.txt Normal file
View file

@ -0,0 +1,41 @@
- abstract da rifare una volta scritto il paper
- dare una conclusione
- introduction
- tracce 2009 google
- tracce 2019 non studiate per i fallimenti
- obiettivo studiare fallimenti 2019 da diverse prospettive e confrontare con 2011
- come studiare i fallimenti
- impatto in tempo/spazio fallimenti
- modellare fallimenti (come riprodurre/studiare statisticamente fallimenti)
- trovare i motivi dei fallimenti (correlazioni che dipendono da task/job/macchine che causano piu' fallimenti)
- contribution:
- perche' sto progetto e' utile
- challenges:
- ci sono tanti dati, tempo CPU, spark
- outline:
- descrivere struttura report
- figura 1: statistiche generali (motivare che i task sono tanti, i job sono tanti)
- scaletta:
- Sezione 2: background information
- COME SONO FATTE LE TRACCE?
- Cosa sono Job, task, eventi fallimenti
- Definire termine failure and execution
- C'e' un datacenter, ci sono 8 cluster in posti diversi,
- Le macchine sono cosi: machine_configs
- Come funziona borg? tu mandi job (tipo Dockerfile). Job fatti da
task, job e task subiscono eventi (cambiamento di job e task).
Eventi sono di tanti tipi ma ci interessano questi: (EVICT FAIL FINISH KILL (non lost))
Figure separate per TUTTI I CLUSER e cluster separati
LEVARE DALLE FIGURE LOST E NO_TERM
(Eccezione unknown machine_time_waste)