›› Tag : colonne   [ Next page ]

R: organizza i numeri in colonne in base al fatto che siano i più piccoli o i più grandi della loro fila

mi scuso per il confuso titolo della domanda, ma ho difficoltà a spiegare ciò che cerco di fare in modo conciso. sto creando una matrice (30 righe, 4 colonne) che è popolata da numeri casuali. la somma di ogni riga deve essere inferiore o uguale a 100. le 4 colonne dovrebbero essere tali che la colonna # 1 contiene i

  Read more »

come cambiare due colonne in un array a 2 dimensioni?

sto scrivendo un codice Sudoku in Java. ho già scritto un codice, ma invece di colonne, le righe sono commutati! int[] tempField = array2D[myFirstCol_toSwitch]; array2D[myFirstCol_toSwitch] = array2D[mySecondCol_toSwitch]; array2D[mySecondCol_toSwitch] = tempField; per generare una tabella di Sudoku ho bisogno di scam

  Read more »

colonna dello spiedo in molte colonne

data = data.frame("id"=1:40,"group"=1:5,"score"=sample(1:4,10,r=T)) table(data[which(data$group==1),]$score) WANT=data.frame("group"=1:5,"score1"=c(0,4,0,4,0),"score2"=c(4,0,0,4,0),"score3"=c(0,4,0,4,0),"score4"=c(0,0,4,4,0)) in dati ho "punteggio", ma voglio fare colonne separate per ogni "punteggio" e poi riassumere

  Read more »

il modo più veloce/più efficiente dal punto di vista computazionalmente per creare un dataframe panda dove le colonne sono piene di stringhe casuali, per diversi milioni di righe?

questo è un seguito a questa domanda come creare un datafame panda dove le colonne sono piene di stringhe casuali? in cui una soluzione è data a pandas pieno file con stringhe casuali. tuttavia, la soluzione non è abbastanza veloce per me, in quanto ci vogliono molte ore per creare diversi milioni di righe di dati, che

  Read more »

funzione di trigger che aggiorna alcune colonne dopo l'aggiornamento di una colonna specifica

ho la tabella Ticketsforsale: Ticketsforsale(ticket_id, starting_date, price) ho bisogno di creare una funzione di trigger che, in caso di aggiornamento su "starting _ date", sostituirà la vecchia "starting _ date" con quella aggiornata oltre ad abbassare il "prezzo" del 20%. la funzione di trigger che ho incontrato f

  Read more »

mantieni i nomi delle colonne con mutate_at e lst () invece di funs ()

in dplyr 0.8.0, funs() è deprecato, e il nuovo formato è quello di utilizzare list() con ~. tuttavia, ho notato che questo non aggiorna più le colonne utilizzando mutate_at() come precedentemente previsto. set.seed(5)testdf >- data.frame(a = sample(1:9, size = 5, replace = TRUE), + b = 1:5,

  Read more »

differenza di tempo in R per gruppo in base alle condizioni e due colonne temporali

vorrei ottenere il tempo trascorso tra gli eventi nel mio datafame, per ogni raggruppamento di dati con l'ID. le date che voglio usare sono nelle loro colonne. ho già fatto il seguente utilizzando dplyr: raggruppati i miei dati per l'ID ordinato dall'ID ecco come appaiono i dati. vorrei che l'output fosse la colonna t

  Read more »

panda: applicare il funzionamento a tutte le colonne senza applymap?

sto cercando di capire se è possibile ottenere quanto segue senza utilizzare applicare e senza utilizzare un ciclo for. df= [df[x].map(lambda x: len(x) 5) for x in df.columns] sto specificamente cercando di evitare di applicare e applymap, e cercare una soluzione vettorizzata. tutti i valori in DF sono stringhe. sto

  Read more »

fai una colonna frase su colonne con valore 1 in Pandas Dataframe

diciamo che ho questo dataset, Voglio creare una colonna frase che aggiunge una parola per ogni colonna con valore di 1... SINNOUVEAU PERTETOTAL CHANGGARAN SOCLOCATIO SINISAMEDI NOMASCONDU SINIREPET 0 1 0 0 0 0 1 0 1 0

  Read more »

modo pythonic di gestire un codice python per gestire le colonne NAN e NAT

sto avendo un grande insieme di dati con le colonne multiple, in ciascuna di queste colonne ci sono 4 colonne separate. per facilità le colonne in Dataframe sono US.A, US.B, US.C, BR.A, BR.B, BR.C Ora se la colonna US.B è vuota solo allora riempire tutta la colonna relativa degli Stati Uniti con "-" similmente se BR.B

  Read more »