Repositorio oficial del curso IIC2233 Programación Avanzada 🚀✨

Overview

IIC2233 - Programación Avanzada

Evaluación

  1. Las evaluaciones serán efectuadas por medio de actividades prácticas en clases y tareas. Se calculará la nota del curso NC como:

    NC = 2/3 * T + 1/3 * AC

    Donde T es el promedio ponderado de las tareas y AC es el promedio de las actividades.

    El promedio ponderado de las tareas se calcula de la siguiente manera:

    T = ( 1xT0 + 2×T1 + 3×T2 + 3×T3 ) / 9

    El promedio de las actividades corresponderá a las 4 mejores notas entre actividades sumativas (son 4) y la nota de actividades formativas, que cuenta como una actividad sumativa más:

    AC = ((ACS1 + ACS2 + ACS3 + ACS4 + EF) - mínimo) / 4, dónde mínimo es la peor nota entre las cinco consideradas (ACS1, ACS2, ACS3, ACS4 y EF).

    La nota de actividades formativas AF toma en consideración la participación del estudiante como meta. Consta de cuatro instancias de actividades formativas, donde el trabajo del estudiante será revisado superficialmente y recibirá un puntaje de cumplimiento acorde: 0 (no logrado), 0,5 (medianamente logrado) y 1 (logrado).

    Se considerará la suma de cumplimientos (A) de las cuatro actividades donde el cálculo de EF es:

    EF = 6 x A / 4 + 1, donde A es la suma de cumplimientos en actividades formativas.

  2. Adicionalmente, para aprobar el curso el alumno debe cumplir con:

    • NC debe ser mayor o igual a 3,950
    • AC debe ser mayor o igual a 3,950
    • T debe ser mayor o igual a 3,950
  3. Este semestre el curso participará de la Encuesta de Carga Académica (ECA), con el objetivo de medir la carga que conlleva el curso y adaptarlo en esta y futuras versiones del curso.

    Para incentivar que a que los estudiantes la respondan, se entregará una bonificación que tendrá efecto en el promedio final del curso, siempre que se cumplan los criterios de aprobación nombrados en el punto anterior.

    Dependiendo de la cantidad de alumnos que responda la ECA cada semana, se podrá ganar:

    • 0,2 décimas: si el alumno responde la ECA y por lo menos el 80% del curso responde la encuesta esa semana.
    • 0,1 décimas: si el alumno responde la ECA y menos del 80% del curso responde la encuesta esa semana.
    • 0 décimas: en cualquier otro caso.

    En total se realizarán 15 encuestas, por lo que, si un estudiante responde todas las ECAs, tendrá una bonificación de 1,5 décimas en su promedio final (si cumple los criterios de aprobación).

  4. Si el alumno cumple con las condiciones nombradas en el punto 2, entonces NF = NC + Décimas ECA. En caso contrario, NF = min(3,9; NC)

  5. La inasistencia a alguna de las evaluaciones (actividades sumativas) se evalúa con nota 1,0.

  6. Solo será aproximada la nota final NF. El resto de las notas serán usadas con dos decimales.

  7. Las notas de todas las evaluaciónes se publicarán en esta planilla (link pendiente). Solo se puede acceder con cuenta UC, no se dará acceso a ninguna otra cuenta.

Recorrección

Para recorregir alguna evaluación, se publicará oportunamente un formulario en el que tendrán que exponer sus motivos.

No se aceptarán recorrecciones del tipo: "Creo que merezco más nota" sin que haya alguna justificación de por medio.

Entregas atrasadas

Deben contestar un formulario que se habilitará en el debido momento. Se recomienda revisar el documento de entregas atrasadas para más detalles.

Foro

La página de Issues se utilizará como foro para preguntas.

Semestres Anteriores

Puedes ver los syllabus de los semestres anteriores en:

Otros

Los contenidos, ayudantes, calendario, cuestionario de recorrecciones y material se encuentran en este link.

Owner
IIC2233 @ UC
IIC2233 Programación Avanzada @ Pontificia Universidad Católica de Chile
IIC2233 @ UC
Split Variational AutoEncoder

Split-VAE Split Variational AutoEncoder Introduction This repository contains and implemementation of a Split Variational AutoEncoder (SVAE). In a SVA

Andrea Asperti 2 Sep 02, 2022
This is the repo for the paper "Improving the Accuracy-Memory Trade-Off of Random Forests Via Leaf-Refinement".

Improving the Accuracy-Memory Trade-Off of Random Forests Via Leaf-Refinement This is the repository for the paper "Improving the Accuracy-Memory Trad

3 Dec 29, 2022
Uses Open AI Gym environment to create autonomous cryptocurrency bot to trade cryptocurrencies.

Crypto_Bot Uses Open AI Gym environment to create autonomous cryptocurrency bot to trade cryptocurrencies. Steps to get started using the bot: Sign up

21 Oct 03, 2022
How to Learn a Domain Adaptive Event Simulator? ACM MM, 2021

LETGAN How to Learn a Domain Adaptive Event Simulator? ACM MM 2021 Running Environment: pytorch=1.4, 1 NVIDIA-1080TI. More details can be found in pap

CVTEAM 4 Sep 20, 2022
Aalto-cs-msc-theses - Listing of M.Sc. Theses of the Department of Computer Science at Aalto University

Aalto-CS-MSc-Theses Listing of M.Sc. Theses of the Department of Computer Scienc

Jorma Laaksonen 3 Jan 27, 2022
CNN Based Meta-Learning for Noisy Image Classification and Template Matching

CNN Based Meta-Learning for Noisy Image Classification and Template Matching Introduction This master thesis used a few-shot meta learning approach to

Kumar Manas 2 Dec 09, 2021
[ICCV 2021] Group-aware Contrastive Regression for Action Quality Assessment

CoRe Created by Xumin Yu*, Yongming Rao*, Wenliang Zhao, Jiwen Lu, Jie Zhou This is the PyTorch implementation for ICCV paper Group-aware Contrastive

Xumin Yu 31 Dec 24, 2022
Myia prototyping

Myia Myia is a new differentiable programming language. It aims to support large scale high performance computations (e.g. linear algebra) and their g

Mila 456 Nov 07, 2022
Pytorch version of SfmLearner from Tinghui Zhou et al.

SfMLearner Pytorch version This codebase implements the system described in the paper: Unsupervised Learning of Depth and Ego-Motion from Video Tinghu

Clément Pinard 909 Dec 22, 2022
Real-time ground filtering algorithm of cloud points acquired using Terrestrial Laser Scanner (TLS)

This repository contains tools to simulate the ground filtering process of a registered point cloud. The repository contains two filtering methods. The first method uses a normal vector, and fit to p

5 Aug 25, 2022
The Multi-Mission Maximum Likelihood framework (3ML)

PyPi Conda The Multi-Mission Maximum Likelihood framework (3ML) A framework for multi-wavelength/multi-messenger analysis for astronomy/astrophysics.

The Multi-Mission Maximum Likelihood (3ML) 62 Dec 30, 2022
Implementation for "Domain-Specific Bias Filtering for Single Labeled Domain Generalization"

DSBF Introduction This repository contains the implementation code for paper: Domain-Specific Bias Filtering for Single Labeled Domain Generalization

ScottYuan 7 Jan 05, 2023
Approaches to modeling terrain and maps in python

topography 🌎 Contains different approaches to modeling terrain and topographic-style maps in python Features Inverse Distance Weighting (IDW) A given

John Gutierrez 1 Aug 10, 2022
Controlling the MicriSpotAI robot from scratch

Project-MicroSpot-AI Controlling the MicriSpotAI robot from scratch Colaborators Alexander Dennis Components from MicroSpot The MicriSpotAI has the fo

Dennis Núñez-Fernández 5 Oct 20, 2022
Model-free Vehicle Tracking and State Estimation in Point Cloud Sequences

Model-free Vehicle Tracking and State Estimation in Point Cloud Sequences 1. Introduction This project is for paper Model-free Vehicle Tracking and St

TuSimple 92 Jan 03, 2023
Official implementation of Meta-StyleSpeech and StyleSpeech

Meta-StyleSpeech : Multi-Speaker Adaptive Text-to-Speech Generation Dongchan Min, Dong Bok Lee, Eunho Yang, and Sung Ju Hwang This is an official code

min95 168 Dec 28, 2022
An optimization and data collection toolbox for convenient and fast prototyping of computationally expensive models.

An optimization and data collection toolbox for convenient and fast prototyping of computationally expensive models. Hyperactive: is very easy to lear

Simon Blanke 422 Jan 04, 2023
An easy way to build PyTorch datasets. Modularly build datasets and automatically cache processed results

EasyDatas An easy way to build PyTorch datasets. Modularly build datasets and automatically cache processed results Installation pip install git+https

Ximing Yang 4 Dec 14, 2021
Compares various time-series feature sets on computational performance, within-set structure, and between-set relationships.

feature-set-comp Compares various time-series feature sets on computational performance, within-set structure, and between-set relationships. Reposito

Trent Henderson 7 May 25, 2022
This repository is an implementation of paper : Improving the Training of Graph Neural Networks with Consistency Regularization

CRGNN Paper : Improving the Training of Graph Neural Networks with Consistency Regularization Environments Implementing environment: GeForce RTX™ 3090

THUDM 28 Dec 09, 2022