主頁 >  其他 > 聊聊我的 Pandas 學習經歷及動手實踐

聊聊我的 Pandas 學習經歷及動手實踐

2022-03-07 07:38:06 其他

想入門人工智能或者資料分析,要重視可以快速上手的學習技能: 掌握一些基本概念,建立一個知識框架,然后就去實戰,在實戰中學習新知識,來填充這個框架,

我根據之前整理的一些pandas知識,總結了一個pandas的快速入門的知識框架,有了這些知識,然后去通過專案實戰,然后再補充,希望能幫助大家快速上手,喜歡本文記得收藏、點贊、關注,我將這些資料整理成PDF版本,需要的可以問題找我獲取,
圖片

推薦文章

  • 李宏毅《機器學習》國語課程(2022)來了

  • 有人把吳恩達老師的機器學習和深度學習做成了中文版

  • 上癮了,最近又給公司擼了一個可視化大屏(附原始碼)

  • 如此優雅,4款 Python 自動資料分析神器真香啊

  • 梳理半月有余,精心準備了17張知識思維導圖,這次要講清統計學

  • 年侄訓總:20份可視化大屏模板,直接套用真香(文末附原始碼)

Pandas入門知識框架

1. 什么是Pandas?熊貓?

Pandas 可以說是基于 NumPy 構建的含有更高級資料結構和分析能力的工具包, 實作了類似Excel表的功能,可以對二維資料表進行很方便的操作,

在資料分析作業中,Pandas 的使用頻率是很高的,一方面是因為 Pandas 提供的基礎資料結構 DataFrame 與 json 的契合度很高,轉換起來就很方便,另一方面,如果我們日常的資料清理作業不是很復雜的話,你通常用幾句 Pandas 代碼就可以對資料進行規整,

Pandas的核心資料結構:Series 和 DataFrame 這兩個核心資料結構,他們分別代表著一維的序列和二維的表結構,基于這兩種資料結構,Pandas 可以對資料進行匯入、清洗、處理、統計和輸出,

快速掌握Pandas,就要快速學會這兩種核心資料結構,

2. 兩種核心資料結構

2.1 Series

Series 是個定長的字典序列,說是定長是因為在存盤的時候,相當于兩個 ndarray,這也是和字典結構最大的不同,因為在字典的結構里,元素的個數是不固定的,

Series 有兩個基本屬性:index 和 values,在 Series 結構中,index 默認是 0,1,2,……遞增的整數序列,當然我們也可以自己來指定索引,比如 index=[‘a’, ‘b’, ‘c’, ‘d’],

import pandas as pd
from pandas import Series, DataFrame
x1 = Series([1,2,3,4])
x2 = Series(data=[1,2,3,4], index=['a', 'b', 'c', 'd'])
print x1
print x2

上面這個例子中,x1 中的 index 采用的是默認值,x2 中 index 進行了指定,我們也可以采用字典的方式來創建 Series,比如:

d = {'a':1, 'b':2, 'c':3, 'd':4}
x3 = Series(d)
print x3 

Series的增刪改查

  1. 創建一個Series

    In [85]: ps = pd.Series(data=[-3,2,1],index=['a','f','b'],dtype=np.float32)     
    
    In [86]: ps                                                                     
    Out[86]: 
    a   -3.0
    f    2.0
    b    1.0
    dtype: float32
    
  2. 增加元素append

    In [112]: ps.append(pd.Series(data=[-8.0],index=['f']))                         
    Out[112]: 
    a    4.0
    f    2.0
    b    1.0
    f   -8.0
    dtype: float64
    
  3. 洗掉元素drop

    In [119]: ps                                                                    
    Out[119]: 
    a    4.0
    f    2.0
    b    1.0
    dtype: float32
    
    In [120]: psd = ps.drop('f')                                                    
    In [121]: psd                                                                  
    Out[121]: 
    a    4.0
    b    1.0
    dtype: float32
    

    注意不管是 append 操作,還是 drop 操作,都是發生在原資料的副本上,不是原資料上,

  4. 修改元素
    通過標簽修改對應資料,如下所示:

    In [123]: psn                                                                   
    Out[123]: 
    a    4.0
    f    2.0
    b    1.0
    f   -8.0
    dtype: float64
    
    In [124]: psn['f'] = 10.0                                                       
    In [125]: psn                                                                   
    Out[125]: 
    a     4.0
    f    10.0
    b     1.0
    f    10.0
    dtype: float64
    

    Series里面允許標簽相同, 且如果相同, 標簽都會被修改,

  5. 訪問元素
    一種通過默認的整數索引,在 Series 物件未被顯示的指定 label 時,都是通過索引訪問;另一種方式是通過標簽訪問,

    In [126]: ps                                                                    
    Out[126]: 
    a    4.0
    f    2.0
    b    1.0
    dtype: float32
    
    In [128]: ps[2] # 索引訪問                              
    Out[128]: 1.0
    
    In [127]: ps['b']  # 標簽訪問                                                             
    Out[127]: 1.0
    

2.2 DataFrame

DataFrame 型別資料結構類似資料庫表,它包括了行索引和列索引,我們可以將 DataFrame 看成是由相同索引的 Series 組成的字典型別,

import pandas as pd
from pandas import Series, DataFrame
data = {'Chinese': [66, 95, 93, 90,80],'English': [65, 85, 92, 88, 90],'Math': [30, 98, 96, 77, 90]}
df1= DataFrame(data)
df2 = DataFrame(data, index=['ZhangFei', 'GuanYu', 'ZhaoYun', 'HuangZhong', 'DianWei'], columns=['English', 'Math', 'Chinese'])
print df1
print df2

在后面的案例中,我一般會用 df, df1, df2 這些作為 DataFrame 資料型別的變數名,我們以例子中的 df2 為例,列索引是[‘English’, ‘Math’, ‘Chinese’],行索引是[‘ZhangFei’, ‘GuanYu’, ‘ZhaoYun’, ‘HuangZhong’, ‘DianWei’],所以 df2 的輸出是:

            English  Math  Chinese
ZhangFei         65    30       66
GuanYu           85    98       95
ZhaoYun          92    96       93
HuangZhong       88    77       90
DianWei          90    90       80

2.2.1基本操作

(1)資料的匯入與輸出

Pandas 允許直接從 xlsx,csv 等檔案中匯入資料,也可以輸出到 xlsx, csv 等檔案,非常方便,
需要說明的是,在運行的程序可能會存在缺少 xlrd 和 openpyxl 包的情況,到時候如果缺少了,可以在命令列模式下使用“pip install”命令來進行安裝,

import pandas as pd
from pandas import Series, DataFrame
score = DataFrame(pd.read_excel('data.xlsx'))
score.to_excel('data1.xlsx')
print score

關于資料匯入, pandas提供了強勁的讀取支持, 比如讀寫CSV檔案, read_csv()函式有38個引數之多, 這里面有一些很有用, 主要可以分為下面幾個維度來梳理:

  • 基本引數

  • filepathorbuffer: 資料的輸入路徑, 可以是檔案路徑, 也可是是URL或者實作read方法的任意物件

  • sep: 資料檔案的分隔符, 默認為逗號

  • delim_whitespace: 表示分隔符為空白字符, 可以是一個空格, 兩個空格

  • header: 設定匯入DataFrame的列名稱, 如果names沒賦值, header會選取資料檔案的第一行作為列名

  • index_col: 表示哪個或者哪些列作為index

  • usecols: 選取資料檔案的哪些列到DataFrame中

  • prefix: 當匯入的資料沒有header時, 設定此引數會自動加一個前綴

  • 通用決議引數

  • dtype:讀取資料時修改列的型別

  • converters: 實作對列資料的變化操作

  • skip_rows: 過濾行

  • nrows: 設定一次性讀入的檔案行數,它在讀入大檔案時很有用,比如 16G 記憶體的PC無法容納幾百 G 的大檔案,

  • skip_blank_lines: 過濾掉空行

  • 時間處理相關引數

  • parse_dates: 如果匯入的某些列為時間型別,但是匯入時沒有為此引數賦值,匯入后就不是時間型別

  • date_parser: 定制某種時間型別

  • 分開讀入相關引數:
    分塊讀入記憶體,尤其單機處理大檔案時會很有用,

  • iterator: iterator 取值 boolean,default False,回傳一個 TextFileReader 物件,以便逐塊處理檔案,
    圖片

  • chunksize: 整型,默認為 None,設定檔案塊的大小,

  • 格式和壓縮相關引數

    id name age 0 1 gz 10 1 2 lh 12

    - `thousands`: str,default None,千分位分割符,如 `,` 或者 `.`,
    
    - `encoding`: 指定字符集型別,通常指定為 ‘utf-8
  • compression
    compression 引數取值為 {‘infer’, ‘gzip’, ‘bz2’, ‘zip’, ‘xz’, None},默認 ‘infer’,直接使用磁盤上的壓縮檔案,如果使用 infer 引數,則使用 gzip、bz2、zip 或者解壓檔案名中以 ‘.gz’、‘.bz2’、‘.zip’ 或 ‘xz’ 這些為后綴的檔案,否則不解壓,如果使用 zip,那么 ZIP 包中必須只包含一個檔案,設定為 None 則不解壓,手動壓縮本文一直使用的 test.csv 為 test.zip 檔案,然后打開

    In [73]:  df = pd.read_csv('test.zip',sep='\s+',compression='zip')
    
    In [74]: df
    Out[74]:
    

具體這些引數怎么用, 可以看https://gitbook.cn/gitchat/column/5e37978dec8d9033cf916b5d/topic/5e3bcef3ec8d9033cf92466f

(2)資料清洗

資料清洗是資料準備程序中必不可少的環節,Pandas 也為我們提供了資料清洗的工具,在后面資料清洗的章節中會給你做詳細的介紹,這里簡單介紹下 Pandas 在資料清洗中的使用方法,

(2.1)洗掉 DataFrame 中的不必要的列或行

Pandas 提供了一個便捷的方法 drop() 函式來洗掉我們不想要的列或行

df2 = df2.drop(columns=['Chinese'])

想把“張飛”這行刪掉,

df2 = df2.drop(index=['ZhangFei'])

(2.2)重命名列名 columns,讓串列名更容易識別

如果你想對 DataFrame 中的 columns 進行重命名,可以直接使用 rename(columns=new_names, inplace=True) 函式,比如我把列名 Chinese 改成 YuWen,English 改成 YingYu,

df2.rename(columns={'Chinese': 'YuWen', 'English': 'Yingyu'}, inplace = True)

(2.3)去重復的值

資料采集可能存在重復的行,這時只要使用 drop_duplicates() 就會自動把重復的行去掉

df = df.drop_duplicates() #去除重復行

(2.4)格式問題

  • 更改資料格式
    這是個比較常用的操作,因為很多時候資料格式不規范,我們可以使用 astype 函式來規范資料格式,比如我們把 Chinese 欄位的值改成 str 型別,或者 int64 可以這么寫
df2['Chinese'].astype('str') 
df2['Chinese'].astype(np.int64) 
  • 資料間的空格
    有時候我們先把格式轉成了 str 型別,是為了方便對資料進行操作,這時想要洗掉資料間的空格,我們就可以使用 strip 函式:
#洗掉左右兩邊空格
df2['Chinese']=df2['Chinese'].map(str.strip)
#洗掉左邊空格
df2['Chinese']=df2['Chinese'].map(str.lstrip)
#洗掉右邊空格
df2['Chinese']=df2['Chinese'].map(str.rstrip)

如果資料里有某個特殊的符號,我們想要洗掉怎么辦?同樣可以使用 strip 函式,比如 Chinese 欄位里有美元符號,我們想把這個刪掉,可以這么寫:

df2['Chinese']=df2['Chinese'].str.strip('$')

(2.5)大小寫轉換

大小寫是個比較常見的操作,比如人名、城市名等的統一都可能用到大小寫的轉換,在 Python 里直接使用 upper(), lower(), title() 函式,方法如下:

#全部大寫
df2.columns = df2.columns.str.upper()
#全部小寫
df2.columns = df2.columns.str.lower()
#首字母大寫
df2.columns = df2.columns.str.title()

(2.6)查找空值

資料量大的情況下,有些欄位存在空值 NaN 的可能,這時就需要使用 Pandas 中的 isnull 函式進行查找,比如,我們輸入一個資料表如下:
圖片
如果我們想看下哪個地方存在空值 NaN,可以針對資料表 df 進行 df.isnull(),結果如下:
圖片
如果我想知道哪列存在空值,可以使用 df.isnull().any(),結果如下:
圖片

2.2.2 使用apply函式對資料進行清洗

apply 函式是 Pandas 中自由度非常高的函式,使用頻率也非常高,比如我們想對 name 列的數值都進行大寫轉化可以用:

df['name'] = df['name'].apply(str.upper)

我們也可以定義個函式,在 apply 中進行使用,比如定義 double_df 函式是將原來的數值 *2 進行回傳,然后對 df1 中的“語文”列的數值進行 *2 處理,可以寫成:

def double_df(x):
           return 2*x
df1[u'語文'] = df1[u'語文'].apply(double_df)

我們也可以定義更復雜的函式,比如對于 DataFrame,我們新增兩列,其中’new1’列是“語文”和“英語”成績之和的 m 倍,'new2’列是“語文”和“英語”成績之和的 n 倍,我們可以這樣寫:

def plus(df,n,m):
    df['new1'] = (df[u'語文']+df[u'英語']) * m
    df['new2'] = (df[u'語文']+df[u'英語']) * n
    return df
df1 = df1.apply(plus,axis=1,args=(2,3,))

2.3 資料統計

在資料清洗后,我們就要對資料進行統計了,Pandas 和 NumPy 一樣,都有常用的統計函式,如果遇到空值 NaN,會自動排除,常用的統計函式包括:
圖片
表格中有一個 describe() 函式,統計函式千千萬,describe() 函式最簡便,它是個統計大禮包,可以快速讓我們對資料有個全面的了解,下面我直接使用 df1.descirbe() 輸出結果為:

df1 = DataFrame({'name':['ZhangFei', 'GuanYu', 'a', 'b', 'c'], 'data1':range(5)})
print df1.describe()

圖片

2.4 資料表合并

有時候我們需要將多個渠道源的多個資料表進行合并,一個 DataFrame 相當于一個資料庫的資料表,那么多個 DataFrame 資料表的合并就相當于多個資料庫的表合并,
比如我要創建兩個 DataFrame:

df1 = DataFrame({'name':['ZhangFei', 'GuanYu', 'a', 'b', 'c'], 'data1':range(5)})
df2 = DataFrame({'name':['ZhangFei', 'GuanYu', 'A', 'B', 'C'], 'data2':range(5)})

兩個 DataFrame 資料表的合并使用的是 merge() 函式,有下面 5 種形式:

  1. python 基于指定列進行連接

比如我們可以基于 name 這列進行連接,

df3 = pd.merge(df1, df2, on='name')

圖片
2. inner內連接
inner 內鏈接是 merge 合并的默認情況,inner 內連接其實也就是鍵的交集,在這里 df1, df2 相同的鍵是 name,所以是基于 name 欄位做的連接:

df3 = pd.merge(df1, df2, how='inner')

圖片
3. left左連接
左連接是以第一個 DataFrame 為主進行的連接,第二個 DataFrame 作為補充,

df3 = pd.merge(df1, df2, how='left')
  1. right右連接

    右連接是以第二個 DataFrame 為主進行的連接,第一個 DataFrame 作為補充,

df3 = pd.merge(df1, df2, how='right')

圖片
5. outer外連接
外連接相當于求兩個 DataFrame 的并集,

df3 = pd.merge(df1, df2, how='outer')

圖片

2.5 DataFram的行級遍歷

盡管 Pandas 已經盡可能向量化,讓使用者盡可能避免 for 回圈,但是有時不得已,還得要遍歷 DataFrame,Pandas 提供 iterrows、itertuples 兩種行級遍歷,

  1. 使用 iterrows 遍歷列印所有行,在 IPython 里輸入以下行:

    def iterrows_time(df):
    for i,row in df.iterrows():
        print(row)
    

    訪問每一行某個元素的時候, 可以通過列名直接訪問:
    圖片

  2. 使用 itertuples 遍歷列印每行:

    def itertuples_time(df):
    for nt in df.itertuples():
        print(nt)
    

    這個效率更高, 比上面那個節省6倍多的時間, 所在資料量非常大的時候, 推薦后者,訪問每一行某個元素的時候, 需要getattr函式
    圖片

  3. 使用iteritems遍歷每一行

    這個訪問每一行元素的時候, 用的是每一列的數字索引

圖片

3. 如何用SQL方式打開Pandas

Pandas 的 DataFrame 資料型別可以讓我們像處理資料表一樣進行操作,比如資料表的增刪改查,都可以用 Pandas 工具來完成,不過也會有很多人記不住這些 Pandas 的命令,相比之下還是用 SQL 陳述句更熟練,用 SQL 對資料表進行操作是最方便的,它的陳述句描述形式更接近我們的自然語言,

事實上,在 Python 里可以直接使用 SQL 陳述句來操作 Pandas,

這里給你介紹個工具:pandasql,

pandasql 中的主要函式是 sqldf,它接收兩個引數:一個 SQL 查詢陳述句,還有一組環境變數 globals() 或 locals(),這樣我們就可以在 Python 里,直接用 SQL 陳述句中對 DataFrame 進行操作,舉個例子:

import pandas as pd
from pandas import DataFrame
from pandasql import sqldf, load_meat, load_births
df1 = DataFrame({'name':['ZhangFei', 'GuanYu', 'a', 'b', 'c'], 'data1':range(5)})
pysqldf = lambda sql: sqldf(sql, globals())
sql = "select * from df1 where name ='ZhangFei'"
print pysqldf(sql)

運行結果

   data1      name
0      0  ZhangFei

上面代碼中,定義了:

pysqldf = lambda sql: sqldf(sql, globals())

在這個例子里,輸入的引數是 sql,回傳的結果是 sqldf 對 sql 的運行結果,當然 sqldf 中也輸入了 globals 全域引數,因為在 sql 中有對全域引數 df1 的使用,

技術交流

歡迎轉載、收藏、有所識訓點贊支持一下!

在這里插入圖片描述

目前開通了技術交流群,群友已超過2000人,添加時最好的備注方式為:來源+興趣方向,方便找到志同道合的朋友

  • 方式①、發送如下圖片至微信,長按識別,后臺回復:加群;
  • 方式②、添加微信號:dkl88191,備注:來自CSDN
  • 方式③、微信搜索公眾號:Python學習與資料挖掘,后臺回復:加群

長按關注

轉載請註明出處,本文鏈接:https://www.uj5u.com/qita/438645.html

標籤:AI

上一篇:matlab-圖形采樣及灰度級轉換

下一篇:【演算法崗面試】某小廠D機器學習

標籤雲
其他(157675) Python(38076) JavaScript(25376) Java(17977) C(15215) 區塊鏈(8255) C#(7972) AI(7469) 爪哇(7425) MySQL(7132) html(6777) 基礎類(6313) sql(6102) 熊猫(6058) PHP(5869) 数组(5741) R(5409) Linux(5327) 反应(5209) 腳本語言(PerlPython)(5129) 非技術區(4971) Android(4554) 数据框(4311) css(4259) 节点.js(4032) C語言(3288) json(3245) 列表(3129) 扑(3119) C++語言(3117) 安卓(2998) 打字稿(2995) VBA(2789) Java相關(2746) 疑難問題(2699) 细绳(2522) 單片機工控(2479) iOS(2429) ASP.NET(2402) MongoDB(2323) 麻木的(2285) 正则表达式(2254) 字典(2211) 循环(2198) 迅速(2185) 擅长(2169) 镖(2155) 功能(1967) .NET技术(1958) Web開發(1951) python-3.x(1918) HtmlCss(1915) 弹簧靴(1913) C++(1909) xml(1889) PostgreSQL(1872) .NETCore(1853) 谷歌表格(1846) Unity3D(1843) for循环(1842)

熱門瀏覽
  • 網閘典型架構簡述

    網閘架構一般分為兩種:三主機的三系統架構網閘和雙主機的2+1架構網閘。 三主機架構分別為內端機、外端機和仲裁機。三機無論從軟體和硬體上均各自獨立。首先從硬體上來看,三機都用各自獨立的主板、記憶體及存盤設備。從軟體上來看,三機有各自獨立的作業系統。這樣能達到完全的三機獨立。對于“2+1”系統,“2”分為 ......

    uj5u.com 2020-09-10 02:00:44 more
  • 如何從xshell上傳檔案到centos linux虛擬機里

    如何從xshell上傳檔案到centos linux虛擬機里及:虛擬機CentOs下執行 yum -y install lrzsz命令,出現錯誤:鏡像無法找到軟體包 前言 一、安裝lrzsz步驟 二、上傳檔案 三、遇到的問題及解決方案 總結 前言 提示:其實很簡單,往虛擬機上安裝一個上傳檔案的工具 ......

    uj5u.com 2020-09-10 02:00:47 more
  • 一、SQLMAP入門

    一、SQLMAP入門 1、判斷是否存在注入 sqlmap.py -u 網址/id=1 id=1不可缺少。當注入點后面的引數大于兩個時。需要加雙引號, sqlmap.py -u "網址/id=1&uid=1" 2、判斷文本中的請求是否存在注入 從文本中加載http請求,SQLMAP可以從一個文本檔案中 ......

    uj5u.com 2020-09-10 02:00:50 more
  • Metasploit 簡單使用教程

    metasploit 簡單使用教程 浩先生, 2020-08-28 16:18:25 分類專欄: kail 網路安全 linux 文章標簽: linux資訊安全 編輯 著作權 metasploit 使用教程 前言 一、Metasploit是什么? 二、準備作業 三、具體步驟 前言 Msfconsole ......

    uj5u.com 2020-09-10 02:00:53 more
  • 游戲逆向之驅動層與用戶層通訊

    驅動層代碼: #pragma once #include <ntifs.h> #define add_code CTL_CODE(FILE_DEVICE_UNKNOWN,0x800,METHOD_BUFFERED,FILE_ANY_ACCESS) /* 更多游戲逆向視頻www.yxfzedu.com ......

    uj5u.com 2020-09-10 02:00:56 more
  • 北斗電力時鐘(北斗授時服務器)讓網路資料更精準

    北斗電力時鐘(北斗授時服務器)讓網路資料更精準 北斗電力時鐘(北斗授時服務器)讓網路資料更精準 京準電子科技官微——ahjzsz 近幾年,資訊技術的得了快速發展,互聯網在逐漸普及,其在人們生活和生產中都得到了廣泛應用,并且取得了不錯的應用效果。計算機網路資訊在電力系統中的應用,一方面使電力系統的運行 ......

    uj5u.com 2020-09-10 02:01:03 more
  • 【CTF】CTFHub 技能樹 彩蛋 writeup

    ?碎碎念 CTFHub:https://www.ctfhub.com/ 筆者入門CTF時時剛開始刷的是bugku的舊平臺,后來才有了CTFHub。 感覺不論是網頁UI設計,還是題目質量,賽事跟蹤,工具軟體都做得很不錯。 而且因為獨到的金幣制度的確讓人有一種想去刷題賺金幣的感覺。 個人還是非常喜歡這個 ......

    uj5u.com 2020-09-10 02:04:05 more
  • 02windows基礎操作

    我學到了一下幾點 Windows系統目錄結構與滲透的作用 常見Windows的服務詳解 Windows埠詳解 常用的Windows注冊表詳解 hacker DOS命令詳解(net user / type /md /rd/ dir /cd /net use copy、批處理 等) 利用dos命令制作 ......

    uj5u.com 2020-09-10 02:04:18 more
  • 03.Linux基礎操作

    我學到了以下幾點 01Linux系統介紹02系統安裝,密碼啊破解03Linux常用命令04LAMP 01LINUX windows: win03 8 12 16 19 配置不繁瑣 Linux:redhat,centos(紅帽社區版),Ubuntu server,suse unix:金融機構,證券,銀 ......

    uj5u.com 2020-09-10 02:04:30 more
  • 05HTML

    01HTML介紹 02頭部標簽講解03基礎標簽講解04表單標簽講解 HTML前段語言 js1.了解代碼2.根據代碼 懂得挖掘漏洞 (POST注入/XSS漏洞上傳)3.黑帽seo 白帽seo 客戶網站被黑帽植入劫持代碼如何處理4.熟悉html表單 <html><head><title>TDK標題,描述 ......

    uj5u.com 2020-09-10 02:04:36 more
最新发布
  • 2023年最新微信小程式抓包教程

    01 開門見山 隔一個月發一篇文章,不過分。 首先回顧一下《微信系結手機號資料庫被脫庫事件》,我也是第一時間得知了這個訊息,然后跟蹤了整件事情的經過。下面是這起事件的相關截圖以及近日流出的一萬條資料樣本: 個人認為這件事也沒什么,還不如關注一下之前45億快遞資料查詢渠道疑似在近日復活的訊息。 訊息是 ......

    uj5u.com 2023-04-20 08:48:24 more
  • web3 產品介紹:metamask 錢包 使用最多的瀏覽器插件錢包

    Metamask錢包是一種基于區塊鏈技術的數字貨幣錢包,它允許用戶在安全、便捷的環境下管理自己的加密資產。Metamask錢包是以太坊生態系統中最流行的錢包之一,它具有易于使用、安全性高和功能強大等優點。 本文將詳細介紹Metamask錢包的功能和使用方法。 一、 Metamask錢包的功能 數字資 ......

    uj5u.com 2023-04-20 08:47:46 more
  • vulnhub_Earth

    前言 靶機地址->>>vulnhub_Earth 攻擊機ip:192.168.20.121 靶機ip:192.168.20.122 參考文章 https://www.cnblogs.com/Jing-X/archive/2022/04/03/16097695.html https://www.cnb ......

    uj5u.com 2023-04-20 07:46:20 more
  • 從4k到42k,軟體測驗工程師的漲薪史,給我看哭了

    清明節一過,盲猜大家已經無心上班,在數著日子準備過五一,但一想到銀行卡里的余額……瞬間心情就不美麗了。最近,2023年高校畢業生就業調查顯示,本科畢業月平均起薪為5825元。調查一出,便有很多同學表示自己又被平均了。看著這一資料,不免讓人想到前不久中國青年報的一項調查:近六成大學生認為畢業10年內會 ......

    uj5u.com 2023-04-20 07:44:00 more
  • 最新版本 Stable Diffusion 開源 AI 繪畫工具之中文自動提詞篇

    🎈 標簽生成器 由于輸入正向提示詞 prompt 和反向提示詞 negative prompt 都是使用英文,所以對學習母語的我們非常不友好 使用網址:https://tinygeeker.github.io/p/ai-prompt-generator 這個網址是為了讓大家在使用 AI 繪畫的時候 ......

    uj5u.com 2023-04-20 07:43:36 more
  • 漫談前端自動化測驗演進之路及測驗工具分析

    隨著前端技術的不斷發展和應用程式的日益復雜,前端自動化測驗也在不斷演進。隨著 Web 應用程式變得越來越復雜,自動化測驗的需求也越來越高。如今,自動化測驗已經成為 Web 應用程式開發程序中不可或缺的一部分,它們可以幫助開發人員更快地發現和修復錯誤,提高應用程式的性能和可靠性。 ......

    uj5u.com 2023-04-20 07:43:16 more
  • CANN開發實踐:4個DVPP記憶體問題的典型案例解讀

    摘要:由于DVPP媒體資料處理功能對存放輸入、輸出資料的記憶體有更高的要求(例如,記憶體首地址128位元組對齊),因此需呼叫專用的記憶體申請介面,那么本期就分享幾個關于DVPP記憶體問題的典型案例,并給出原因分析及解決方法。 本文分享自華為云社區《FAQ_DVPP記憶體問題案例》,作者:昇騰CANN。 DVPP ......

    uj5u.com 2023-04-20 07:43:03 more
  • msf學習

    msf學習 以kali自帶的msf為例 一、msf核心模塊與功能 msf模塊都放在/usr/share/metasploit-framework/modules目錄下 1、auxiliary 輔助模塊,輔助滲透(埠掃描、登錄密碼爆破、漏洞驗證等) 2、encoders 編碼器模塊,主要包含各種編碼 ......

    uj5u.com 2023-04-20 07:42:59 more
  • Halcon軟體安裝與界面簡介

    1. 下載Halcon17版本到到本地 2. 雙擊安裝包后 3. 步驟如下 1.2 Halcon軟體安裝 界面分為四大塊 1. Halcon的五個助手 1) 影像采集助手:與相機連接,設定相機引數,采集影像 2) 標定助手:九點標定或是其它的標定,生成標定檔案及內參外參,可以將像素單位轉換為長度單位 ......

    uj5u.com 2023-04-20 07:42:17 more
  • 在MacOS下使用Unity3D開發游戲

    第一次發博客,先發一下我的游戲開發環境吧。 去年2月份買了一臺MacBookPro2021 M1pro(以下簡稱mbp),這一年來一直在用mbp開發游戲。我大致分享一下我的開發工具以及使用體驗。 1、Unity 官網鏈接: https://unity.cn/releases 我一般使用的Apple ......

    uj5u.com 2023-04-20 07:40:19 more