iam-git / WellMet (public) (License: MIT) (since 2021-08-31) (hash sha1)
WellMet is pure Python framework for spatial structural reliability analysis. Or, more specifically, for "failure probability estimation and detection of failure surfaces by adaptive sequential decomposition of the design domain".

/stm_df.py (6965eabdb5599bb22773e7fef1178f9b2bb51efe) (10940 bytes) (mode 100644) (type blob)

#!/usr/bin/env python
# coding: utf-8

"""
tohle je mezivrstva mezi simplexovymi odhady v boxu a grafy v qt_plot
(Kdybych věřil, že je to jen pro qt_plot, tak ten modul nevytvařím)

#Podle kódu pyqtgraph a matplotlib už je jasný, že musím vracet 2 numpy vektory.
#Asi nebudu zahrnovat .zerosafe() - je to jen zvlaštnost pyqtgraph
#Není úplně jasně, zda mám dělat třídu (stateful), 
#nebo mám se omezit jen na funkci (stateless)
#Minule přišel jsem na potřebu stateful, 
#ale už si nepamatuji proč.

není aktuální, ale ty estimátory furt nemám promyšlený.
Podstata problému spočívá v tom, že současný DiceBox
ukladá odhady dvěma různejma způsoby, přičemž 
TRI odhady jsou ukladány jako slovníky (strukturováně).
Pro ty strukturovaná data Pandas (aj obecně tabulka)
není ideální volba. Na druhou stranu chceme jednoduše
všechno co máme nakreslit a vyexportovat do Excelu.
"""

import numpy as np
#č právě kvůli pandas davam tohle do separatního modulu
#č normálně kód WellMet pandas nevyžaduje
import pandas as pd 
        

def get_estimation_data(estimations, metric):
    metric_dict = dict()
    #č new-style: šecko leží dohromady a každý z toho
    #č bere co chce a jak chce
    #č ne že by to bylo nějak šetrný
    #č estimation je slovníkem
    for estimation in estimations:
        #č nsim musí mäť každej odhad
        #č pokud nemá - je třeba jej prostě opravit
        nsim = estimation['nsim']
        try: 
            metric_dict[nsim] = estimation[metric]
        except KeyError as e:
            pass #print(self.__class__.__name__ + ":", repr(e))
    
    #č nikdo neslibil, že budou v pořadí
    x = np.sort(tuple(metric_dict.keys()))
    y = np.array(tuple(metric_dict.values()))[np.argsort(tuple(metric_dict.keys()))]
    return x, y


def proxy(dice_box, nsim):
    proxy = dice_box.proxy
    index = np.array(nsim)-1
    #č indexy musíme o jedničku změnšit
    #č výsledek nikoliv. Takže v cajku.
    return np.cumsum(~proxy)[index]


#č vysledek dlouhého přemyšlení, co a jak mám udělat.
#č nic lepšího nenapadá: 
#č pandas není vhodný pro strukturována data
#č (možná aj strukturování není úplně na místě), 
#č ale exportovat do Excelčíku se mi taky chce
def get_tri_data_frame(dice_box, sources=['box', 'user'], apply_proxy=False):
    
    #č přeneseme rozhodování do volajícího kódu
#    #č nejdřív proxy. None znamená podle přitomosti
#    if apply_proxy is None:
#        if hasattr(dice_box, 'proxy'):
#            apply_proxy = True
#        else:
#            apply_proxy = False
    
    #č teď zdroje (zjednodušeně). Zatím netřeba nic komplikovat
    #č po těch pomocných funkcích budu chtit df s nastaveným index=nsim
    #č a sloupcem nsim (ten je spíš pro nás, lidé). proxy nemají řešit
    
    #č je tu fakt velkej bordel s těmi odhadama
    #č to jistě budu muset překopávat
    tri_box_estimator = 'TRI_overall_estimations'
    if ('box' in sources) and (tri_box_estimator in dice_box.guessbox.estimations):
        df_box = get_tri_box_df(dice_box, tri_box_estimator)
    else: #č pak nakrmíme pd.concat'u
        df_box = None
    
    if 'user' in sources:
        df_user = get_tri_user_df(dice_box)
    else: #č pak nakrmíme pd.concat'u
        df_user = None
    
    #č předbežně:
    #č nejdřív concat (spojime zdroje dohromady)
    df = pd.concat((df_box, df_user), sort=False)
    
    #č pak deduplicate 
    #č (aby se převzaly odhady se stejným nsim z posledního zdroje)
    df = df.groupby(level=0).last()
    
    #č dale vytřídíme odhady dle nsim
    df.sort_values('nsim', inplace=True)
    
    #č pokud použiváme proxy, tak je vložit, vyhodit ďupy, nahradit index
    if apply_proxy:
        #č teoreticky index a nsim musejí bejt stejné
        nsim = df.index
        nsim_proxy = proxy(dice_box, nsim)
        #č oboje nsim a nsim_proxy jsou pro lide, aby zahrivalo srdce
        #č předpokladá se, že volající kód bude použivat index
        df.insert(loc=0, column='nsim (proxy)', value=nsim_proxy)
        #č nahradit index, pak vyhodit ďupy
        df.index = nsim_proxy
        df = df.groupby(level=0).last()
        
    #č když ne - tak jenom nahradíme index a vypadneme otsuď 
    #č Alexi, co? vždyť ten index už nemusíme řešit, ten musí bejt v pořádku!
    
    #č vemte ten svůj pitomej rám
    #č a na shledanou!
    return df
    
    
    
    

def get_tri_box_df(dice_box, tri_estimation_name='TRI_overall_estimations'):
    #č chyby nechť chytá volající kód!
    data = dice_box.guessbox.estimations[tri_estimation_name]
    nsim, tri_data = data
    # it can be effectively done with pandas
    df = pd.DataFrame(tri_data, index=nsim)
    # -1 = 'outside', 0=success, 1=failure, 2=mix
    df.rename(columns={-1:'outside', 0:'success', 1:'failure', 2:'mix'}, inplace=True)
    df.insert(loc=0, column='nsim', value=nsim)
    
    
    if 'vertex_estimation' in dice_box.guessbox.estimations:
        data = dice_box.guessbox.estimations['vertex_estimation']
        nsim, y = data
        #č zatím nevidím důvod komplikovat
        #č ale je tu předpoklad konzistenci skříňky
        df['vertex_estimation'] = y 
    
    if 'weighted_vertex_estimation' in dice_box.guessbox.estimations:
        data = dice_box.guessbox.estimations['weighted_vertex_estimation']
        nsim, y = data
        #č zatím nevidím důvod komplikovat
        #č ale je tu předpoklad konzistenci skříňky
        df['weighted_vertex_estimation'] = y 
        
    return df
            




def get_tri_user_df(dice_box):
    metrics = ['TRI_estimation', \
                 'vertex_estimation', 'weighted_vertex_estimation']
                            
    metadict = dict()
    for metric in metrics:
        metadict[metric] = dict()
    
    #č new-style: šecko leží dohromady a každý si z toho
    #č bere co chce a jak chce
    #č ne že by to bylo nějak šetrný
    #č estimation je slovníkem
    for estimation in dice_box.estimations:
        # nsim musí mäť každej odhad
        # pokud nemá - je třeba jej prostě opravit
        nsim = estimation['nsim']
        for metric in metrics:
            #č tuším __contains__ je lehčí jak exception
            if metric in estimation:
                metadict[metric][nsim] = estimation[metric]
    
    #č vytahneme 'TRI_estimation' z metrik aj ze slovníku
    tri_estimation = metadict.pop(metrics.pop(0)) # == 
    #č zda se, že zde nic nehodí chybu, aj kdyby žádné odhady nebyly
    nsim = tuple(tri_estimation.keys())
    # it can be effectively done with pandas
    df = pd.DataFrame(tuple(tri_estimation.values()), index=nsim)
    # -1 = 'outside', 0=success, 1=failure, 2=mix
    df.rename(columns={-1:'outside', 0:'success', 1:'failure', 2:'mix'}, inplace=True)
    df.insert(loc=0, column='nsim', value=nsim)
    #df.sort_values('nsim', inplace=True) #č zbytečně
    
    #č musely tam zůstat jenom 'vertex_estimation' 
    #č a 'weighted_vertex_estimation'
    for metric in metrics:
        s = pd.Series(metadict[metric])
        df[metric] = s
    
    return df

#č sice nazev obsahuje DataFrame, dědiť my jeho, конечно же, nebudeme
#č pořadně nerozumím, proč tu třídu dělám. Valčím s komplicitou
#č zatím jsem rozhod, že je zbytečně dělat wrap .pf_exact'u a .pf_exact_method'u
#č patří navíc nahé skřiňce
#class BoxEstimationsDataFrame:
#    def __init__(self, dice_box):
#        self.dice_box = dice_box
#        
#        
#            
#    
#    #č aspoň něco
#    def __contains__(self, estimation):
#          return True 
#        
#            
#
#    def _pens_data_update(self):
#        df = self.df
#        nsim = df.nsim.to_numpy()
#        if self.proxy_chk.isChecked():
#            x = self.proxy(nsim)
#            df.insert(loc=0, column='nsim (proxy)', value=x)
#        else:
#            x = nsim
#        # (in case of LogPlot) fallback values also used
#        success_values = df.failure+df.mix+df.out
#        outmix_values = df.failure+df.mix
#        failure_fallback = np.where(outmix_values > 0, outmix_values, success_values)
#        self.pen_f.setData(*self.zerosafe(x, df.failure, failure_fallback))
#        self.pen_outmix.setData(*self.zerosafe(x, outmix_values, success_values))
#        self.pen_success.setData(*self.zerosafe(x, success_values))
#    
#    
#    def redraw(self):
#        xmin = np.inf
#        xmax = -np.inf
#        tri_estimation = dict()
#        try: # тут всё что угодно может пойти не так
#            # kruci, ještě navic i generovať pokažde znovu...
#        
#            # new-style: šecko leží dohromady a každý si z toho
#            # bere co chce a jak chce
#            # ne že by to bylo nějak šetrný
#            # estimation je slovníkem
#            for estimation in self.dice_box.estimations:
#                # nsim musí mäť každej odhad
#                # pokud nemá - je třeba jej prostě opravit
#                nsim = estimation['nsim']
#                try: 
#                    tri_estimation[nsim] = estimation['TRI_estimation']
#                    if nsim > xmax:
#                        xmax = nsim
#                    if nsim < xmin:
#                        xmin = nsim
#                        
#                except KeyError as e:
#                    pass #print(self.__class__.__name__ + ":", repr(e))
#            
#            #č neotravuj uživatele chybovejma hlaškama
#            if tri_estimation:
#                # it can be effectively done with pandas
#                self.df = df = pd.DataFrame(tuple(tri_estimation.values()))
#                # -1 = 'out', 0=success, 1=failure, 2=mix
#                df.rename(columns={-1:'out', 0:'success', 1:'failure', 2:'mix'}, inplace=True)
#                df.insert(loc=0, column='nsim', value=tuple(tri_estimation.keys()), allow_duplicates=False)
#                df.sort_values('nsim', inplace=True)
#
#                self._pens_data_update()
#            
#                nsim, y = get_estimation_data(self.dice_box.estimations, 'vertex_estimation')
#                df['vertex_estimation'] = y #č spolehám na konzistenci odhadů (ne úplně)
#                self.pen_vertex.setData(*self.zerosafe(self.proxy(nsim), y))
#                
#                nsim, y = get_estimation_data(self.dice_box.estimations, 'weighted_vertex_estimation')
#                df['weighted_vertex_estimation'] = y #č spolehám na konzistenci odhadů (ne úplně)
#                self.pen_weighted_vertex.setData(*self.zerosafe(self.proxy(nsim), y))
#        
#            
#        except BaseException as e:
#            print(self.__class__.__name__ + ":", repr(e))
#        


Mode Type Size Ref File
100644 blob 28117 0907e38499eeca10471c7d104d4b4db30b8b7084 IS_stat.py
100644 blob 6 0916b75b752887809bac2330f3de246c42c245cd __init__.py
100644 blob 72 458b7e2ca46acd9ec0d2caf3cc4d72e515bb73dc __main__.py
100644 blob 73368 3d245b8568158ac63c80fa0847631776a140db0f blackbox.py
100644 blob 11243 10c424c2ce5e8cdd0da97a5aba74c54d1ca71e0d candybox.py
100644 blob 29927 066a2d10ea1d21daa6feb79fa067e87941299ec4 convex_hull.py
100644 blob 102798 059ae717e71c651975673420cd8230fbef171e5e dicebox.py
100644 blob 36930 a775d1114bc205bbd1da0a10879297283cca0d4c estimation.py
100644 blob 34394 3f0ab9294a9352a071de18553aa687c2a9e6917a f_models.py
100644 blob 31142 3e14ac49d16a724bb43ab266e8bea23114e47958 g_models.py
100644 blob 20908 457329fe567f1c0a9950c21c7c494cccf38193cc ghull.py
100644 blob 2718 5d721d117448dbb96c554ea8f0e4651ffe9ac457 gp_plot.py
100644 blob 29393 96162a5d181b8307507ba2f44bafe984aa939163 lukiskon.py
100644 blob 2004 6ea8dc8f50a656c48f786d5a00bd6398276c9741 misc.py
040000 tree - c0c40f3968c1e44d1d7114eb70bd72173342d4fa mplot
100644 blob 1462 437b0d372b6544c74fea0d2c480bb9fd218e1854 plot.py
100644 blob 2807 1feb1d43e90e027f35bbd0a6730ab18501cef63a plotly_plot.py
040000 tree - 92aa143106644f120bdc42b9062db3513c499e60 qt_gui
100644 blob 8566 5c8f8cc2a34798a0f25cb9bf50b5da8e86becf64 reader.py
100644 blob 4284 a0e0b4e593204ff6254f23a67652804db07800a6 samplebox.py
100644 blob 6558 df0e88ea13c95cd1463a8ba1391e27766b95c3a5 sball.py
100644 blob 6739 0b6f1878277910356c460674c04d35abd80acf13 schemes.py
100644 blob 76 11b2fde4aa744a1bc9fa1b419bdfd29a25c4d3e8 shapeshare.py
100644 blob 54074 ba978868adb487385157afa5b3420f9ad90e4f46 simplex.py
100644 blob 13090 2b9681eed730ecfadc6c61b234d2fb19db95d87d spring.py
100644 blob 10940 6965eabdb5599bb22773e7fef1178f9b2bb51efe stm_df.py
040000 tree - 2e8d08eec735088322a3ea5f667ff338db7808ca testcases
100644 blob 2465 d829bff1dd721bdb8bbbed9a53db73efac471dac welford.py
100644 blob 20204 1a281748b81481f8d51c3793bcf46b0034082152 whitebox.py
Hints:
Before first commit, do not forget to setup your git environment:
git config --global user.name "your_name_here"
git config --global user.email "your@email_here"

Clone this repository using HTTP(S):
git clone https://rocketgit.com/user/iam-git/WellMet

Clone this repository using ssh (do not forget to upload a key first):
git clone ssh://rocketgit@ssh.rocketgit.com/user/iam-git/WellMet

Clone this repository using git:
git clone git://git.rocketgit.com/user/iam-git/WellMet

You are allowed to anonymously push to this repository.
This means that your pushed commits will automatically be transformed into a merge request:
... clone the repository ...
... make some changes and some commits ...
git push origin main