Kaggle competition: Springleaf Marketing Response

Overview

PruebaEnel

Prueba Kaggle-Springleaf-master

Prueba Kaggle-Springleaf

Kaggle competition: Springleaf Marketing Response

Competencia de Kaggle: Marketingarketing de Springleaf por parte del equipo KarolCastillo

Introduccion

Este repositorio contiene cuadernos de ipython preparados para la competencia Kaggle: Springleaf Marketing Response. Springleaf ofrece a sus clientes préstamos personales y para automóviles que los ayudan a tomar el control de sus vidas y sus finanzas. El correo directo es una forma importante en que el equipo de Springleaf puede conectarse con los clientes que pueden necesitar un préstamo. Para mejorar su esfuerzo específico, a Springleaf le gustaría centrarse en los clientes que probablemente respondan y sean buenos candidatos para sus servicios.

Usando un gran conjunto de funciones y Data anonimizada anonimizadas, Springleaf nos pide que predigamos qué clientes responderán a una oferta de correo directo.

Data

Contamos con un conjunto de datos anonymized cse proporciona información del cliente. Cada entrada (fila) corresponde a un cliente. la variable de respuesta es binaria. Hay más de 140.000 entradas tanto en el conjunto de prueba como en el de entrenamiento.

Guia Proyecto

Procesamiento de la Data

En la carpeta de preprocesamiento, los datos de características se procesaron de manera diferente en función de los diferentes tipos de datos.

  1. Los datos numéricos se preprocesaron en data_preprocessing_SL_Feb2022_train_test_th60.ipynb. El procesamiento clave incluye imputación de valores perdidos, detección de valores atípicos, transformación logarítmica de columnas sesgadas a la derecha, estandarización de columnas numéricas, etc. Además de las columnas numéricas básicas, se derivaron 10 columnas numéricas. Las columnas categóricas con un número limitado de valores se transformaron utilizando DictVectorizer (codificación OneHot). Las columnas numéricas con muy pocos valores se separan de otras columnas numéricas, al igual que las columnas de series temporales.

  2. Los datos de series temporales se procesaron en data_preprocessing_SL_Feb2022_time_series_normalization.ipynb

  3. Las columnas categóricas con demasiados valores, así como las columnas numéricas con muy pocos valores, se procesaron en data_preprocessing_SL_Feb2022_cat_num_normalization.ipynb

  4. Todas las demás columnas categóricas se preprocesaron con la codificación OneHot en data_preprocessing_SL_Feb2022_th60_cat_label_encoding.ipynb

Caracteristicas de la seleccion

Estas Caracteristicas de Seleccion estan en la carpeta seleccion_característicascaracterísticas. Se escogieron multiples metodos, incluyendo RFECV, greedy forward selection, backward selection and the SelectKBest from sklearn. Entrada de los Modelos:

  1. Modelo Lineal (Logistic, SVM, Passive aggressive): numerical variables
  2. A´rbol de Busqueda (xgBoost, random forest, scikit learn gradient boosting): numerical + veriables categoricas

Optimizacion Modelos

Entrenamiento de Modelos gridsearchCV o el home-built método que genera predicción en el conjunto de prueba durante la validación cruzada, la predicción se puede usar más adelante como metacaracterísticas. La búsqueda en cuadrícula se realizó con diferentes algoritmos, como xgboost, random forest, online svm y regresión logística.

Prediccion Final

Las predicciones finales se realizan con modelos de nivel 0 y nivel 1 utilizando características básicas, características derivadas y metacaracterísticas, utilizando modelos que incluyen xgBoost, RandomForest, regresión logística SGD, máquinas de vectores de soporte SGD, clasificador pasivo-agresivo SDG.

Modelos

La idea es selecccionar el Modelo más optimo

Aligning Latent and Image Spaces to Connect the Unconnectable

About This repo contains the official implementation of the Aligning Latent and Image Spaces to Connect the Unconnectable paper. It is a GAN model whi

Ivan Skorokhodov 203 Jan 03, 2023
Navigating StyleGAN2 w latent space using CLIP

Navigating StyleGAN2 w latent space using CLIP an attempt to build sth with the official SG2-ADA Pytorch impl kinda inspired by Generating Images from

Mike K. 55 Dec 06, 2022
Custom implementation of Corrleation Module

Pytorch Correlation module this is a custom C++/Cuda implementation of Correlation module, used e.g. in FlowNetC This tutorial was used as a basis for

Clément Pinard 361 Dec 12, 2022
Source code for our paper "Molecular Mechanics-Driven Graph Neural Network with Multiplex Graph for Molecular Structures"

Molecular Mechanics-Driven Graph Neural Network with Multiplex Graph for Molecular Structures Code for the Multiplex Molecular Graph Neural Network (M

shzhang 59 Dec 10, 2022
BADet: Boundary-Aware 3D Object Detection from Point Clouds (Pattern Recognition 2022)

BADet: Boundary-Aware 3D Object Detection from Point Clouds (Pattern Recognition

Rui Qian 17 Dec 12, 2022
Official code for CVPR2022 paper: Depth-Aware Generative Adversarial Network for Talking Head Video Generation

📖 Depth-Aware Generative Adversarial Network for Talking Head Video Generation (CVPR 2022) 🔥 If DaGAN is helpful in your photos/projects, please hel

Fa-Ting Hong 503 Jan 04, 2023
implementation of the paper "MarginGAN: Adversarial Training in Semi-Supervised Learning"

MarginGAN This repository is the implementation of the paper "MarginGAN: Adversarial Training in Semi-Supervised Learning". 1."preliminary" is the imp

Van 7 Dec 23, 2022
prior-based-losses-for-medical-image-segmentation

Repository for papers: Benchmark: Effect of Prior-based Losses on Segmentation Performance: A Benchmark Midl: A Surprisingly Effective Perimeter-based

Rosana EL JURDI 9 Sep 07, 2022
Introduction to CPM

CPM CPM is an open-source program on large-scale pre-trained models, which is conducted by Beijing Academy of Artificial Intelligence and Tsinghua Uni

Tsinghua AI 136 Dec 23, 2022
YoloAll is a collection of yolo all versions. you you use YoloAll to test yolov3/yolov5/yolox/yolo_fastest

官方讨论群 QQ群:552703875 微信群:15158106211(先加作者微信,再邀请入群) YoloAll项目简介 YoloAll是一个将当前主流Yolo版本集成到同一个UI界面下的推理预测工具。可以迅速切换不同的yolo版本,并且可以针对图片,视频,摄像头码流进行实时推理,可以很方便,直观

DL-Practise 244 Jan 01, 2023
Turning SymPy expressions into JAX functions

sympy2jax Turn SymPy expressions into parametrized, differentiable, vectorizable, JAX functions. All SymPy floats become trainable input parameters. S

Miles Cranmer 38 Dec 11, 2022
Codes for our paper "SentiLARE: Sentiment-Aware Language Representation Learning with Linguistic Knowledge" (EMNLP 2020)

SentiLARE: Sentiment-Aware Language Representation Learning with Linguistic Knowledge Introduction SentiLARE is a sentiment-aware pre-trained language

74 Dec 30, 2022
Bottom-up attention model for image captioning and VQA, based on Faster R-CNN and Visual Genome

bottom-up-attention This code implements a bottom-up attention model, based on multi-gpu training of Faster R-CNN with ResNet-101, using object and at

Peter Anderson 1.3k Jan 09, 2023
This program writes christmas wish programmatically. It is using turtle as a pen pointer draw christmas trees and stars.

Introduction This is a simple program is written in python and turtle library. The objective of this program is to wish merry Christmas programmatical

Gunarakulan Gunaretnam 1 Dec 25, 2021
pytorch implementation of Attention is all you need

A Pytorch Implementation of the Transformer: Attention Is All You Need Our implementation is largely based on Tensorflow implementation Requirements N

230 Dec 07, 2022
Unofficial pytorch implementation of 'Image Inpainting for Irregular Holes Using Partial Convolutions'

pytorch-inpainting-with-partial-conv Official implementation is released by the authors. Note that this is an ongoing re-implementation and I cannot f

Naoto Inoue 525 Jan 01, 2023
Accelerated NLP pipelines for fast inference on CPU and GPU. Built with Transformers, Optimum and ONNX Runtime.

Optimum Transformers Accelerated NLP pipelines for fast inference 🚀 on CPU and GPU. Built with 🤗 Transformers, Optimum and ONNX runtime. Installatio

Aleksey Korshuk 115 Dec 16, 2022
Neural Tangent Generalization Attacks (NTGA)

Neural Tangent Generalization Attacks (NTGA) ICML 2021 Video | Paper | Quickstart | Results | Unlearnable Datasets | Competitions | Citation Overview

Chia-Hung Yuan 34 Nov 25, 2022
🏅 The Most Comprehensive List of Kaggle Solutions and Ideas 🏅

🏅 Collection of Kaggle Solutions and Ideas 🏅

Farid Rashidi 2.3k Jan 08, 2023
OREO: Object-Aware Regularization for Addressing Causal Confusion in Imitation Learning (NeurIPS 2021)

OREO: Object-Aware Regularization for Addressing Causal Confusion in Imitation Learning (NeurIPS 2021) Video demo We here provide a video demo from co

20 Nov 25, 2022